今年 5 月的谷歌 I/O 大会上,皮查伊宣布了对标 GPT-4 的大模型 PaLM 2,但同时也提到谷歌的研究重心正在转向 Gemini,后者是一种多模态和高效的机器学习工具。
为了更快地开发 Gemini,谷歌在今年 4 月份合并了内部的两个人工智能实验室:谷歌大脑(Google Brain)和 DeepMind,Gemini 这项联合计划就由来自两个实验室的研究人员组成的团队牵头。
接下来几个月,Gemini 的神秘面纱一点点被揭开:我们大概知道该模型是在 Google Brain 和 DeepMind 合并之后开始研发的,将具有像 GPT-4 一样的万亿参数;Gemini 在训练中已经展示出了以往模型中从未见过的多模态能力;一旦经过微调和严格的安全性测试,谷歌同样将提供不同尺寸和功能的 Gemini 版本,以确保部署在不同的产品、应用和设备上。
最新消息是,据三位直接知情人士透露,谷歌已经允许一小部分公司使用 Gemini 软件的早期版本,意味着谷歌即将将其纳入消费者服务,并通过公司的云计算服务出售给企业。
能否超越 GPT-4?
近日,SemiAnalysis 分析师 Dylan Patel 和 Daniel Nishball 带来了更多关于 Gemini 的爆料,其中 Dylan Patel 曾在今年 7 月 11 日曾曝光 GPT-4 的架构。
Dylan Patel 和 Daniel Nishball 透露,初代的 Gemini 应该是在 TPUv4 上训练的,并且这些 pod 并没有集成最大的芯片数 —4096 个芯片,而是使用了较少的芯片数量,以保证芯片的可靠性和热插拔。如果所有 14 个 pod 都在合理的掩模场利用率 (MFU) 下使用了约 100 天,那么训练 Gemini 的硬件 FLOPS 将超过 1e26。
不过,Gemini 已开始在新的 TPUv5 Pod 上进行训练,算力高达~1e26 FLOPS,比训练 GPT-4 的算力还要大 5 倍。
另外,Gemini 的训练数据库为 Youtube 上 93.6 亿分钟的视频字幕,总数据集大小约为 GPT-4 的两倍。
Gemini 由一组大型语言模型组成,可能使用 MOE 架构与投机采样(Speculative Sampling)技术,通过小模型提前生成 token 传输至大模型进行评估,提高模型总推理速度。
从能力上说,Gemini 支持从聊天机器人到总结文本或生成原始文本(如电子邮件草稿、歌词或新闻文章)的各种功能,这些功能都是基于对用户想要阅读的内容的描述。此外,Gemini 还能帮助软件工程师编写代码,并根据用户的要求生成原始图片。
据 The Information 此前报道,谷歌希望 Gemini 大大提高软件开发人员的代码生成能力,以此追赶微软的 GitHub Copilot 代码助手。
谷歌员工还讨论过利用 Gemini 来实现图表分析等功能,比如要求模型解释完成图表的含义,以及使用文本或语音指令来浏览网页浏览器或其他软件。
一位测试过 GPT-4 的人士说,Gemini 至少在一个方面比 GPT-4 更具优势:除了网络上的公共信息外,Gemini 利用了谷歌从其消费产品中获取的大量专有数据。因此,该模型在理解用户对特定查询的意图时应该会特别准确,而且它似乎会产生较少的错误答案(即幻觉)。
谷歌云服务迎头赶上的机会
自今年年初 OpenAI 开始出售 GPT-4 的访问权限以来,谷歌近几个月来一直在积极地将其现有的商用模型提供给更多的开发者。
今年 5 月,谷歌宣布将通 Vertex AI 向谷歌云客户提供 PaLM 2 。另一位知情人士说,谷歌计划通 Google Cloud Vertex AI service 向企业提供「Gemini」,包含不同大小的版本,这样开发者就可以选择付费购买一个不太复杂的版本来处理简单的任务,或者购买一个足够小的版本在个人设备上运行。
这位知情人士补充说,谷歌目前让开发者使用的是相对较大的 Gemini 版本,但不是正在开发的最大版本,后者更接近于 GPT-4。
对谷歌来说,Gemini 的发布事关重大。谷歌花费了大量的计算资源和人力来开发它作为与 OpenAI 竞争的利器,希望这款软件除了促进其云服务器租赁业务外,还能为从 Bard 聊天机器人到 Workspace 软件的新功能提供支持。
据 The Information 报道,OpenAI 和其他软件公司(如帮助公司开发和使用人工智能的 Databricks)也预测,它们将从对话式 AI 中获得可观的收入。然而,开源大模型的崛起可能会削弱谷歌和 OpenAI 出售其专有模型访问权的关注度。
也许某天一觉醒来,Gemini 已经正式发布,届时它的神秘面纱将被彻底揭开。
谷歌能否凭借 Gemini 扭转局势?我们只需耐心等待。