在推动生成式AI落地应用的进程中,除了高性能的算力之外,面向不同行业的不同场景,如何快速开发构建应用也成为摆在很多企业面前的主要挑战。在GTC 2024上,NVIDIA发布了一系列面向生成式AI应用开发的软件包,让人眼前一亮。
那么,NVIDIA都发布了哪些软件开发工具?它们都有哪些看点。接下来,让我们来盘点一下。
创造性的发布生成式AI软件开发方式
GTC 2024上,黄仁勋认为,生成式 AI 改变了应用程序的编写方式。未来的公司不应该把精力放在编写软件上,而是要放在组装 AI 模型,赋予它们任务,给出工作产品示例,并审查计划和中间结果。
为此,NVIDIA推出了专为加速计算库和生成式AI模型建的全新软件包,供开发者在已安装 NVIDIA CUDA GPU 的系统中创建和部署生成式 AI 助手。与此同时,NVIDIA发布Omniverse Cloud API,为众多工业数字孪生软件工具提供助力。
NVIDIA用生成式AI微服务的方式,创造式的改变了生成式AI软件的开发方式。对于企业而言,他们可以利用这些微服务,在自己的平台上快速创建和部署定制化的应用,并能够保留对知识产权的完整所有权和控制权。
我们不可能从头开始编写代码,也不用写一大堆Python 代码或类似的东西。黄仁勋认为,未来如何构建软件,只需要组建一支AI团队就足够了。这支AI团队可以使用现成的 NIM 微服务构建专属的AI和AI助手,为不同公司所需的模型提供专门训练,帮助他们创建更好的新服务。
在GTC 2024上,NVIDIA推出了数十项企业级生成式 AI 微服务,其中包括 NVIDIA NIM™ 微服务,能够适用于 NVIDIA 及合作伙伴生态系统中 20 多个热门的 AI 模型进行推理优化。另外,用户现能够以 NVIDIA CUDA-X 微服务的形式使用 NVIDIA 加速软件开发套件、库和工具,用于检索增强生成(RAG)、护栏、数据处理、HPC 等。除此之外,NVIDIA 还发布了 20 多项医疗 NIM 和 CUDA-X 微服务。
1)NIM 微服务
NIM 微服务提供基于 NVIDIA 推理软件的预构建容器,包括 Triton 推理服务器™ 和 TensorRT™-LLM,使开发者能够将部署时间从几周缩短至几分钟。
在语言、语音和药物发现等领域,NIM 微服务提供了行业标准 API,使开发者能够使用安全托管在自己的基础设施中的专有数据,来快速构建 AI 应用。这些应用可按需扩展,从而为在 NVIDIA 加速计算平台上运行生产级生成式 AI 提供灵活性和性能。
除此之外,NIM 微服务还能够为部署 NVIDIA、A121、Adept、Cohere、Getty Images 和 Shutterstock 的模型,以及谷歌、Hugging Face、Meta、微软、Mistral AI 和 Stability AI 的开放模型提供快速且性能出色的生产级 AI 容器。
据了解,用户可以从亚马逊 SageMaker、谷歌 Kubernetes Engine 和微软 Azure AI 中访问 NIM 微服务,并与 Deepset、LangChain 和 LlamaIndex 等流行的 AI 框架集成。
由于NVIDIA NIM 软件包是根据 NVIDIA 的加速计算库和生成式 AI 模型构建的,因此用户可以在 NVIDIA 庞大的 CUDA 安装基础上工作,针对新 GPU 进行重新优化,并不断扫描安全漏洞和威胁。
大会现场,黄仁勋展示了NVIDIA全新的医疗微服务套件,其包含经过优化的 NVIDIA NIM™ AI 模型和工作流,并提供行业标准应用编程接口(API),用于创建和部署云原生应用。NVIDIA医疗微服务套件还提供先进的医学影像、自然语言和语音识别以及数字生物学生成、预测和模拟功能。
2)CUDA-X 微服务
CUDA-X 微服务为数据准备、定制和训练提供端到端的构建模块。GTC 2024上,NVIDIA推出了定制语音和翻译 AI 的 NVIDIA Riva、用于路由优化的 NVIDIA cuOpt™,以及用于高分辨率气候和天气模拟的 NVIDIA Earth-2。
除此之外,NVIDIA还推出了能够让开发者将其 AI 应用链接到业务数据的NeMo Retriever™微服务,包括文本、图像以及条形图、折线图和饼图等可视化内容,以生成高度准确、与上下文相关的结果。借助当中的RAG 功能,企业可以向助手、聊天机器人和生成式 AI 生产力工具提供更多数据,从而提高准确性和洞察力。
据了解,NVIDIA面向更多的用于定制模型开发的 NVIDIA NeMo™ 微服务也将陆续发布,其中包括构建用于训练和检索的简洁数据集的 NVIDIA NeMo Curator、用于利用特定领域数据微调 LLM 的 NVIDIA NeMo Customizer、用于分析 AI 模型性能的 NVIDIA NeMo Evaluator 以及用于 LLM 的 NVIDIA NeMo Guardrails。
NVIDIA 微服务已经被NVIDIA 生态系统中的数据、基础设施和计算平台提供商使用,包括 Box、Cloudera、Cohesity、Datastax、Dropbox 和 NetApp 在内的顶级数据平台提供商正在使用 NVIDIA 微服务,帮助客户优化 RAG 管道,并将专有数据集成到生成式 AI 应用中。
另外,企业可以在自己选择的基础设施上部署 NVIDIA AI Enterprise 5.0 中的 NVIDIA 微服务,例如领先的亚马逊云科技(AWS)、谷歌云、Azure 和 Oracle Cloud Infrastructure 等云平台。超过 400 个 NVIDIA 认证系统也支持 NVIDIA 微服务,包括思科、戴尔科技、慧与(HPE)、惠普、联想和超微的服务器和工作站。
黄仁勋表示,NVIDIA合作伙伴拥有多年来创建的所有这些令人惊叹的工具(和数据)。他强调,“企业IT行业正坐在一座‘金矿’上,如果他们能把这个‘金矿’变成 AI 助手,就能给用户提供更多可能。
3)Omniverse Cloud API
NVIDIAI Omnivers Cloud是全球领先的工业数字孪生应用和工作流创建平台。为了帮助更多的软件厂商加速AI研发,在GTC 2024上,NVIIDIA正式宣布通过API的方式,将该平台的覆盖范围扩展至整个软件制造商生态系统。
NIVIDIA总共推出了五个Omniverse Cloud API,它们即可以单独使用,也可以组合作用。
USD Render:生成OpenUSD数据的全光线追踪NVIDIA RTX™渲染
USD Write:让用户能够修改OpenUSD数据并与之交互
USD Query:支持场景查询和交互式场景
USD Notify:追踪USD变化并提供更新信息
Omniverse Channel:连接用户、工具和世界,实现跨场景协作。
借助五个全新 Omniverse Cloud 应用编程接口(API),开发者能够轻松地将 Omniverse 的核心技术直接集成到现有的数字孪生设计与自动化软件应用中,或是集成到用于测试和验证机器人或自动驾驶汽车等自主机器的仿真工作流中。
黄仁勋在现场宣布,NVIDIA 将把 Omniverse 引入 Apple Vision Pro 中,通过新的 Omniverse Cloud API,开发者可以将交互式工业数字孪生流式传输到 VR 头显中。
GTC 2024现场,黄仁勋分享了一个机器人仓库的演示,展示其工作原理——它使用多摄像头感知和追踪,看顾工人并协调机器人叉车,在整个机器人堆栈运行的情况下,这些叉车能够实现自动驾驶。
据了解,一些全球大型工业软件制造商正在采用 Omniverse Cloud API,包括 Ansys、Cadence、达索系统旗下 3DEXCITE 品牌、Hexagon、微软、罗克韦尔自动化、西门子和 Trimble 等。