AI大模型走出“泡沫期” 原生应用始于2024?,金融街最新消息,金融街最新信息

《 金融街 000402 》

财务数据 | 十大股东 | 历史市盈率 | 龙虎榜

热点题材 | 分红股息 | 历史市净率 | 资金流

AI大模型走出“泡沫期” 原生应用始于2024?
2023-12-28 08:59:00
自2022年底ChatGPT问世,科技行业AI大模型的热潮便席卷全球,2023年,全球科技巨头无不加码布局,旨在能在这轮由AI大模型掀起的科技革命中占据领先位置。
  在此背景下,我国科技企业迅速跟进。工业和信息化部赛迪研究院数据显示,目前,我国已有超过19个语言大模型研发厂商。其中,15家厂商的模型产品已经通过备案。预计今年我国语言大模型市场规模将达到132.3亿元,增长率将达到110%。
  事实上,AI技术已发展多年,之所以在2023年热度急速攀升,在于计算量提升带来的变化。
  在AI围棋打败人类棋手之时,Google Bert的参数规模为3亿;2020年后GPT-3横空出世,参数量级已经跨越到了1750亿;迭代到GPT-4,参数继续成倍增长,已达1.8万亿左右。
  当计算量达到10的22次方之后,模型能力会完成从量变到质变的飞跃,呈现出惊人的爆发式增长。
  随着参数规模扩大,下半年以来,技术的颠覆性影响逐渐深入到产业界,重构传统的产业形态和产业模式。Gartner预测,到2026年,超过80%的企业将在生产中使用生成式人工智能API和模型,或在部署生成式人工智能应用。
  而2024年或是AI大模型应用爆发的一年。近日,猎豹移动董事长兼CEO、猎户星空董事长傅盛在2023探索大会上表示,未来一定会出现很多像移动智能手机时代的滴滴、美团外卖等,在过去时代中没有出现过的应用。
  竞争与淘汰
  业内普遍认为,AI大模型时代是继IT时代、移动互联网时代之后又一个充满机遇和可能性的新时代。从全球范围看,世界各地均在积极推动大模型研发和应用,其中美国和中国发布的通用大模型总数占全球发布量的80%。
  紧跟ChatGPT的脚步,各大企业和机构纷纷加入大模型竞争中,包括百度、阿里巴巴、腾讯等互联网大厂,商汤科技、旷视科技等AI领域厂商,智谱华章、百川智能、达观数据等大模型初创企业,以及复旦大学、清华大学等高校机构。公开资料显示,截至今年10月,国内已经发布了238个大模型。
  在新的大模型竞争中,创业公司和大厂各有优势。大厂有多年的积累和大量的用户,得以获得海量用户数据和反馈,但一线创业公司通常拥有创新的技术和业务模式,同样存在快速技术迭代的可能。正如百川智能创始人、CEO王小川所说,“小创新靠大厂,大创新仍然要靠小厂”。
  在《SuperCLUE中文大模型基准测评报告,2023》中,大厂和创业公司大模型的平均成绩差值约1分,几乎持平。
  但国内外大模型的能力差距仍然存在。“我们与OpenAI的差距正在拉大,不是在缩小。”复旦大学计算机科学技术学院教授肖仰华表示。
  在SuperCLUE测评中,GPT4-Turbo以总分89.79分遥遥领先,高于国内所有的大模型及国外的代表性大模型。国内得分最高的大模型是文心一言4.0,但距离GPT4-Turbo仍有15.77的分差。
  “现在国内主流的大模型的能力水平基本上在GPT3.5上下。”非凡资本合伙人吴畏向21世纪经济报道记者表示,在他看来,其中差距在半年以上。
  大模型的核心壁垒包括算力、数据、算法,因而也是差距集中表现的方面。度小满CTO许冬亮在2023金融街论坛年会上表示,只有极少的企业能够从头到尾地完成产业级研发。
  算力是大模型训练的基石。如今,模型参数指数级增长,训练所需算力巨大,千亿级别的通用大模型,训练一次就需要付出几千万的成本。当前国内已发布的大模型中,参数规模达到千亿及以上的厂商仅为10个左右。
  在美国最新一轮的封锁制裁下,国产化替代方案的需求更加迫切。但在很长一段时间内,芯片与算力仍会是国产大模型与ChatGPT之间一道巨大的鸿沟。
  “国内每家公司都要做,这就会产生一个问题,每家都做自己的,但每家数据、算力也有限,也没有多少钱可以支持研发,并且又在做一些很基础的、重复性的事情。”复旦大学计算机学院教授、Moss系统负责人邱锡鹏在此前接受21世纪经济报道记者采访时表示。
  随着国内大模型不断追赶,行业的竞争格局也将随之发生改变。目前,大模型行业仍处于泡沫期,拥有技术力量的公司不想被时代的浪潮抛下,企图通过训练自己的大模型迎头赶上,所以有了百模大战、千模大战。当行业进入成熟期,只有少量企业能真正赋能行业,挤掉泡沫后才能沉淀出价值。
  “以后大模型会逐渐呈现寡头的趋势,因为算力有限的情况下,以及大模型过于同质化,会使得算力资源以及数据资源未来会集中,有一些价值性不高的大模型也会逐渐被淘汰。”沙利文大中华区总监李庆向21世纪经济报道记者表示。
  业内普遍认为,在通用大模型中,最后胜出的只会是少数的几家巨头。
  “被淘汰的大模型企业也不会就此消失,他们可能会找到自己的机会,比如做多模态的大模型、或某些特定的行业的大模型等。”吴畏向记者表示。
  下半年以来,市场对于大模型的热度较年初已有显著降温,在业内看来,这无非是市场对新技术“高估短期影响,低估长期潜力”的体现。从另一个角度来看,当新技术祛魅,落地过程中各类问题逐渐显现,对于大模型过度的期待也在趋于理性的过程中。
  应用与商业化
  当行业竞争加剧,大模型落地应用便成为各方关注焦点。
  IDC在2023年8月的《Gen AI ARC Survey》的调研报告中指出,在拥有5000名以上员工的企业中,80%的企业认为生成式AI将在未来18个月内颠覆他们的业务。
  “大模型绝不应该只停留在炼金术阶段,我们要推动它变成科学的大模型,只有跟行业深度融合才有可能真正地实现可持续发展。”肖仰华表示。
  首先是从通用大模型向垂直大模型的转型,有行业观点认为,大模型未来发展将趋于通用化与专用化并行。
  今年6月,腾讯云首次正式公布行业大模型研发进展,并发布了面向B端客户的腾讯云MaaS服务解决方案。今年7月,华为发布“不作诗只做事”的盘古大模型3.0,深耕政务、金融、制造、煤矿、铁路、制药、气象等行业。此外,面向旅游的“携程问道”、面向医疗的百度“灵医”大模型、面向教育的网易“子曰”大模型等也集中在下半年陆续发布。
  其中,金融行业的应用场景丰富,是最早进行数字化转型的机构,成为AI大模型落地应用的最佳场景之一。金融行业积淀了包括金融交易数据、客户信息在内的海量数据,良好的数据基础为AI大模型的落地应用提供条件。目前,生成和决策两类金融大模型,已在银行、证券等金融机构中实现落地。
  “怎么将自己的业务和商业场景与AI的逻辑相匹配,以及如何寻求AI价值创新,而不单一是从效率上体现,可能是目前推进中需要考虑的问题。”李庆表示,“如果不能灵活使用大模型,或者不能完全适配自己的商业场景,可能在一定程度上很难完全实现降本增效的目的。”
  而对于后来者来说,大模型的机会或在于应用。基于大模型技术的AI原生应用被看作会真正点燃行业的路径,吴畏向记者表示,从投资人角度,也更看好大模型应用的创业公司。
  百度创始人、董事长兼CEO李彦宏近日在一场圆桌活动上表示,百模大战是对社会资源的浪费,更多资源应该放在超级应用。在11月的西丽湖论坛上,他也说过,“AI原生时代,我们需要100万量级的AI原生应用,但是不需要100个大模型。”在百度世界2023现场,百度率先甩出了十余款AI原生应用。
  新技术的繁荣一定是应用的繁荣,如上传20张照片生成写真照的妙鸭相机,输入几个关键词就可生成高质量视频的Pika,这些火爆的创新产品为AI创业拉开一条新口子。业内普遍认为,原生应用能够撬动更大的商业价值,是人类进入AI时代的标识。
  它们有基于原有的产品融合大模型的能力,也有重新搭载大模型的基于场景的应用。“目前我们看到很多应用都是选择了第二种。”李庆向记者表示。
  他认为,监管层面可能会给予一定空间。“在大模型刚出来时,因为对于其理解以及未来的应用相对模糊,一开始采取从严的策略,之后随着应用的诞生,以及国内外的差异,监管层面或许会给予适当的灵活空间来支持行业的发展。”
  不过遗憾的是,直到年末,国内依然没有一款持续火爆的AI应用出现,即便是红极一时的妙鸭相机,也在上线仅两个月后因多次付费、用户黏性不够等渐渐淡出大众视野。在吴畏看来,国内大模型应用的商业模式仍待探索,相比之下,海外市场拥有更大的机会。“海外类似的应用单月收入已突破百万美元。”
  不过,此类问题并不可操之过急,大模型高昂的使用成本、自身存在的幻觉问题、市场的付费意愿不足等都是限制应用发展的原因,而这些问题的解决都在日新月异的变革中推进。
  业内有观点认为,繁荣的AI原生应用生态需要大模型、智能算力、AI原生应用研发新范式三要素相辅相成,也有观点认为,AI原生应用的起点会在2024年。可以肯定的是,爆发还需时间,但AI应用的未来值得期待。
(文章来源:21世纪经济报道)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

AI大模型走出“泡沫期” 原生应用始于2024?,金融街最新消息,金融街最新信息

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml