如今,任何有关人工智能的讨论都必然会涉及ChatGPT的崛起,这是一款基于OpenAI的GPT系列大型语言模型(LLM)构建的无处不在的聊天机器人。但是,如何在数据中心满足这种生成式人工智能技术的需求呢?
这款聊天机器人于去年年底推出,并以其内容生成功能引起轰动。人们正在使用ChatGPT和其他供应商的竞争机器人来回答复杂的问题,以及自动化编写软件代码和制作营销文案等任务。
但由于这种生成式人工智能技术固有的所有可能性,充分利用基础模型的潜力一直很困难。大多数模型都是根据公开数据进行训练的,这使得它们不太适合特定的企业应用,例如查询敏感的内部文档。
企业希望这些模型能够处理企业内部数据。但这是否意味着企业必须全力以赴、从头开始构建?让我们深入了解一下。
构建大型语言模型:数据中心中成本高昂之事
构建LLM的任务需要多个步骤,例如GPT-3或GPT-4,首先需要进行大量的计算训练,这需要数百甚至数千个昂贵的GPU在数据中心服务器中聚集在一起,持续数周或数月。
随着模型规模的增加,训练和再训练所需的GPU数量也会增加。例如,Google必须插入6144个芯片来训练其5400亿参数的PaLM模型。这一过程还需要高级培训技术和工具方面的专业知识,例如Microsoft DeepSpeed和Nvidia MegaTron-LM,而这些在组织中可能并不容易获得。
训练完成后,这些芯片就需要在模型上持续运行推理,这进一步增加了成本。从这个角度来看,如果只使用500台Nvidia DGX A100多GPU服务器(通常用于LLM训练和推理),每台售价19.9万美元,就意味着该项目的支出约为1亿美元。除此之外,服务器产生的额外功耗和热量输出将增加总拥有成本。
这是对数据中心基础设施的大量投资,特别是对于那些不是专门的人工智能组织、只希望LLM加速某些业务用例的企业来说。
人工智能时代数据中心的理想方法
除非企业拥有独特的高质量数据集,可以创建具有坚实竞争优势的模型,值得投资。否则最好的方法是针对组织自身数据(企业文档、客户电子邮件等)的特定用例,对现有开源LLM进行微调。
一个很好的反例是BloombergGPT模型。这是Bloomberg从头开始训练的一个包含500亿个参数的[模型]……有多少组织可以自信地声称其拥有相同数量的独特高质量数据?其实,没有那么多。
另一方面,微调是一个更轻量级的过程,只需要一小部分时间、预算和精力。
如果企业确实看到从头开始构建LLM的价值,那么就应该从小规模开始,使用托管云基础设施和机器学习(ML)服务,而不是立即购买昂贵的GPU进行现场部署。
云还提供了更多培训选项可供选择,不仅包括Nvidia GPU,还包括AMD和Intel的GPU,以及Google TPU和AWS Trainium等客户加速器。
另一方面,如果当地法律或法规强制要求远离云端,现场部署GPU等加速硬件将是默认的首选。
规划仍然是关键
在急于为特定领域的LLM和基于其的应用投资GPU、技能或云合作伙伴之前,技术决策者必须通过与企业中的其他领导者和主题专家合作来制定明确的战略。专注于决策的业务案例,大致了解此类工作负载当前和未来的需求将会很有帮助。
通过这种规划,企业可以做出明智的决定,决定何时以及如何投资培训LLM。这包括选择什么样的硬件、可以在哪里使用其他人开发的现有模型,以及谁可能是人工智能之旅的合适合作伙伴等方面。
人工智能/机器学习的发展速度令人难以置信……如果以传统的面向未来的思维方式来对待这些新技术,那么解决方案很可能会相对较快地过时。所涉及的技术和硬件的特殊性意味着,更好的选择可能是首先开发解决方案前景,并相应地升级数据中心。
在没有正当理由的情况下,人们很容易相信采用新技术的炒作和趋势,但这无疑会导致失望,并可能拒绝企业未来可以从中受益的实际用例。更好的方法是保持头脑冷静,投入时间了解相关技术,并与利益相关者合作,评估可以从集成中获得的好处。