自研AI芯片 微软能否“翻越”英伟达?

最新信息

自研AI芯片 微软能否“翻越”英伟达?
2023-10-11 08:20:00


K图 MSFT_0
  一边是AI芯片短缺,一边是微软等决心自研。

  10月初,媒体曝出微软计划在下个月的年度开发者大会上推出为人工智能大语言模型设计的芯片“雅典娜”。
  “雅典娜”被期望能够与英伟达的旗舰产品H100(一款英伟达开发的图形处理器)竞争。无独有偶,AMD(一家为计算机、通信和消费电子行业设计和制造各种微处理器的美国公司)首席执行官苏姿丰也在10月7日公开发声称,AMD推出的MI300显卡的处理速度“和英伟达的H100一样快”。包括AMD在内的其他AI芯片供应商也正努力在英伟达的高墙中挖出一道属于自己的“缝隙”。
  不过,打破英伟达在AI芯片上的龙头地位并不容易。10月10日,一位曾在国内AI芯片公司任职,后跳槽到某初创芯片企业的从业者告诉贝壳财经记者,国内有很多AI初创芯片企业都想造出替代英伟达A100、H100显卡的产品,但发现完全不可替代,主要原因是性能差距,“虽然硬件的参数都差不多,但是软件及生态差很多。”
  摆脱英伟达依赖症微软“雅典娜”降临?
  曾几何时,一家公司拥有多少块英伟达的“A100”或者“H100”成为了AI大模型算力能否过关的“代名词”,但在全球AI大模型研发火爆的背景下,芯片的供应量也逐渐“捉襟见肘”。此外,AI大模型的训练、运行成本也随着大模型系数的增加而不断增加。
  OpenAI(美国人工智能公司)首席执行官奥特曼曾公开抱怨运行AI大模型所需芯片的稀缺以及其高昂成本。根据伯恩斯坦分析师斯塔西拉斯刚(StacyRasgon)的分析,如果ChatGPT的查询规模增长到谷歌搜索的十分之一,那么它最初需要大约价值480亿美元的GPU(图形处理器),每年还需要约160亿美元的芯片来维持运营。
  前述芯片从业者告诉贝壳财经记者,目前市面上绝大多数训练AI大模型的公司仍然使用的是英伟达的芯片,这是因为许多大模型只有使用英伟达芯片才能实现最佳的性能。
  为了越过英伟达、扩展供应渠道、降低成本,自研AI芯片成了许多大公司的选择。事实上,微软开发“雅典娜”AI芯片的消息早在2019年就已传出。根据汤姆硬件发布的信息,该芯片使用台积电5纳米制程,专为大语言模型训练设计。报道称,微软芯片用于数据中心服务器,同时可支持推理,能为ChatGPT背后的所有AI软件提供动力。
  华泰证券分析师何翩翩在10月8日发布的研报中表示,芯片供不应求+成本居高不下,自研或是科技大厂的一致选择。微软的合作者OpenAI从去年开始研究解决AI芯片短缺问题,方案包括潜在收购或招募AI硬件设计人才。微软与 OpenAI的合作用到大量英伟达芯片,且云大厂拥有财力物力,自研AI芯片也无可厚非。
  英伟达AI芯片“城墙”高在哪里?
  自去年年底AI大模型火爆以来,对专用AI芯片的需求激增,AI专用芯片或AI加速器对于训练和运行大模型属于“必需品”,英伟达是为数不多的几家生产AI芯片并主导市场的芯片制造商之一。
  贝壳财经记者浏览公开数据发现,对于英伟达在AI芯片市场中的占有率,根据不同的机构调查结果,其市场份额在80%到95%不等。2021年,英伟达表示,全球前500个超算中,大约七成是由英伟达芯片驱动的。
  此外,英伟达围绕其开发的 CUDA架构(统一计算设备架构)构建了一个强大的生态系统,包括庞大的开发者社区、第三方软件和硬件供应商以及学术机构。该生态系统形成良性循环,使用CUDA的人越多,第三方开发者和其他合作伙伴就越有动力支持它,为英伟达的GPU编写更多的程序,从而进一步强化了生态系统。
  前述芯片从业者告诉贝壳财经记者,目前国内外不乏有旨在挑战英伟达统治地位的芯片公司,但这些芯片产品的“硬伤”在于软件优化问题,即便硬件的参数再好看,调用不起来就等于没有用,“英伟达拥有极其丰富的软件系统和生态,即便有其他芯片公司想要兼容英伟达的架构,但底层芯片架构不同,从底层硬件到应用层,中间有很多层,每一层的优化都会极大影响效率,所以换一个芯片,软件的运行效率还是会下降。”
  此外,英伟达自身也正在加固“护城河”,包括投资初创企业等。华泰证券在研报中表示,英伟达自2023年起至少已投资12家初创企业,“我们认为此举有助于英伟达拓宽业务渠道,并进一步巩固其生态壁垒。”
(文章来源:新京报)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

自研AI芯片 微软能否“翻越”英伟达?

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml