据彭博社消息,OpenAI CEO 萨姆・奥特曼(Sam Altman)近日再次为一家人工智能芯片企业筹集了数十亿美元的资金,希望建立一个范围覆盖全球的晶圆厂「企业网络(network of factories)」,并计划与未具名的顶级芯片制造商合作。
报道称,奥特曼已与几家大型潜在投资者进行了谈判,希望能筹集到晶圆厂所需的巨额资金。
在生成式 AI 快速爆发的时代,运行 AI 模型面临的主要困难是算力限制。在 ChatGPT 、 DALL-E 等生成式 AI 模型的背后,研究者们投入了大量的算力资源和时间。随着各大公司、研究机构对 AI 芯片需求的持续上升,芯片巨头英伟达的价值更是水涨船高,去年市值首次突破 1 万亿美元,部分原因是它在芯片行业的垄断地位 —— 众所周知,GPT-4、Gemini、Llama 2 和其他模型严重依赖 H100 GPU。
日趋旺盛的高性能 AI 芯片需求正在催生出一些新的芯片创业公司。然而在更上游的位置,高端芯片的晶圆厂数量也是有限的,这促使微软、Meta 这样的公司需要提前数年预定产能,才能获得足够的新型芯片。而要与科技巨头公司竞争,就需要大量资金来承担费用,这是 OpenAI 所不具备的。
据报道,软银集团和总部位于阿布扎比的人工智能控股公司 G42 已经在讨论为奥特曼的项目筹集资金的事宜。但谈判仍处于早期阶段,参与合作伙伴和资助者的完整名单尚未确定。
其他开发 AI 模型的公司也开始尝试制造自己的芯片。OpenAI 的主要投资者微软就是其中一个,该公司于去年 11 月宣布开始制造定制芯片 —— 而且它们都与人工智能有关。
由于对英伟达 H100 GPU 的需求激增,微软的自研替代品 Azure Maia AI 芯片和 Arm 架构的 Azure Cobalt CPU 将于今年上市,该 GPU 将广泛用于生成图像工具和大型语言模型。当前,H100 GPU 持续处于供不应求的状态,以至于有些 GPU 在 eBay 上的售价甚至超过了 4 万美元。
微软为其云基础设施设计的两个定制硅芯片。
紧随其后,亚马逊发布了新版本的 Trainium 芯片,该芯片旨在构建和运行人工智能应用程序。
此外,还有谷歌的芯片设计团队正在使用运行在谷歌云服务器上的 DeepMind AI 来设计其张量处理单元(TPU)等人工智能处理器。
与此同时,AWS、Azure 和谷歌也使用英伟达的 H100 处理器。本周,Meta 首席执行官马克・扎克伯格告诉 The Verge,「Meta 将购买超过 35 万块英伟达的 H100 GPU」,致力于开发通用人工智能,以驱动计划中的下一代智能服务。
有第三方投资机构的研究估算,英伟达面向 Meta 的 H100 出货量在 2023 年能达到 15 万块,这个数字与向微软的出货量持平,并且至少是其他公司的三倍。扎克伯格表示,如果算上英伟达 A100 和其他人工智能芯片,到 2024 年底,Meta 的 GPU 算力将达到等效近 60 万 H100。
英伟达 GH200 Grace Hopper 超级芯片
面向生成式 AI 的计算,英伟达已经发布了下一代 GH200 Grace Hopper 芯片,以扩大其在该领域的主导地位,而竞争对手 AMD、高通和英特尔也推出了旨在为笔记本电脑、手机和其他设备上运行的人工智能模型提供支持的处理器。