2024 年 Nvidia GTC 大会涵盖了围绕 AI 时代的主题,这引出了以下总体问题:各行业组织的云和 IT 基础设施是否已为 AI 的未来做好准备?
在主题演讲中,Nvidia 首席执行官黄仁勋在加州圣何塞 SAP 中心向观众发表了两个小时的演讲。演讲的亮点是新的Blackwell GPU 平台,该平台旨在在万亿参数大语言模型上运行实时生成 AI。每个 Blackwell 芯片提供 2080 亿个晶体管,最新版本的 NVLink 提供 1.8TBps 的双向吞吐量。
这一最新声明激发了人们对人工智能潜力的日益兴奋。根据TechTarget 的企业战略集团研究,54% 的组织将在未来一年内拥有或预计将拥有生成式人工智能。
然而,尽管有这么多令人兴奋的事情,Nvidia GTC 上展示的技术规模也应该让任何企业决策者三思而行。在做出任何决定之前,先问问自己:是否需要这种级别的技术?能负担得起吗?如何根据自己的组织和用例调整我 AI 基础设施投资规模?
尽管 GPU 技术有时会供不应求,但可用的基础设施选项却并不短缺。三大公共云提供商 AWS、Google Cloud Platform 和 Microsoft Azure 在 Nvidia GTC 期间宣布计划利用新的 Blackwell 技术。
这些公共云服务为组织提供了利用最新 GPU 技术的选择,而无需在本地采购和部署基础设施。虽然预计云应用将大量采用,但 AI 和生成式 AI 工作负载正在推动本地基础设施的复兴。
根据研究, 78% 的企业表示他们更愿意将高价值的专有数据保存在自己的数据中心。人工智能计划的成功取决于数据,企业希望将人工智能工作负载部署到更靠近数据所在位置,以降低成本并加快价值实现时间。
因此,基础设施提供商正在积极致力于通过提供将其技术与 Nvidia 的技术相结合的集成和经过验证的基础设施产品来加快 AI 计划的价值实现时间。
在展厅里,大家看到了戴尔科技、DataDirect Networks、日立 Vantara、Hammerspace、Liqid、Pure Storage、Vast Data 和 Weka 的产品。每款产品都旨在简化 Nvidia 技术的部署和集成,同时加快 AI 计划的价值实现时间。尽管目的相似,但这些产品针对的是成本最小。虽然检索增强生成等技术可以降低现有模型出现幻觉的可能性,但之前的不良体验可能会阻碍内部用户对 AI 项目的热情。
用例识别至关重要,因为基础设施需求可能会因所用数据的规模、用于训练模型的参数数量以及你计划开发自己的模型还是使用自己的数据增强现有模型而有很大差异。使用现成模型的检索增强生成也可以使基础设施投资比人们预期的要轻得多。
在确定用例时,组织可以利用不断壮大的服务合作伙伴生态系统来确定正确的策略。此外,戴尔科技等基础设施提供商正在通过补充咨询服务组合来增强其基础设施选项,以帮助组织识别和定义用途,以及准备其数据以用于 AI 计划。
人工智能和生成式人工智能有望改变整个商业格局。鉴于最新 Nvidia 技术的强大功能,很容易让人不知所措。但不要惊慌,人工智能计划通常可以从合理的基础设施投资开始。重要的是确定正确的用途和数据集,并在流程早期利用合作伙伴。