出品 | 51CTO技术栈(微信号:blog51cto)
本周三,亚马逊网络服务 (AWS) 宣布更新其生成式 AI开发服务Amazon Bedrock,增加了新的上下文基础功能、检索增强生成 (RAG)的连接器以及其他大型语言模型 (LLM)。
据亚马逊生成式人工智能副总裁瓦西·菲洛明 (Vasi Philomin) 称,这些更新有望简化企业基于生成式人工智能的应用程序的开发。
1.上下文基础
菲洛明表示,上下文基础(contextual grounding)是 Amazon Bedrock Guardrails 的一个附加功能,旨在进一步降低以LLM生成内容出现幻觉反应的可能性。
副总裁解释说,情境基础使用 RAG 和总结应用程序来检测模型反应中的幻觉,检查 LLM 反应是否基于正确的企业数据,并与用户的查询或指令保持一致。
其他主要云服务提供商,如 Google 和 Microsoft Azure,也已建立系统来评估 RAG 应用程序的可靠性,包括响应生成指标的映射。
微软使用 Groundedness Detection API 来检查 LLM 的文本响应是否基于用户提供的源材料,而谷歌最近更新了 Vertex AI 内部的接地选项,增加了动态检索和高保真模式等功能。
AWS 还在 Amazon Bedrock 中提供了 RAG 评估和可观察性功能,这些功能使用忠实度、答案相关性和答案语义相似性等指标来对查询响应进行基准测试。AWS 表示,它将为 Amazon Bedrock 提供 Guardrails 作为单独的 API,供 Bedrock 之外的 LLM 使用。
Philomin 表示:“我们收到大量企业客户的请求,他们希望在 Bedrock 之外的模型上使用独立的 Guardrails API,因此我们发布了它。”
AWS 的举措让人想起IBM 今年 5 月通过工具包提供其 watsonx.governance产品的战略。虽然 IBM 工具包与 Guardrails API 并不完全可比,但它可用于创建一个存储库,用于记录模型整个生命周期的详细信息。此类信息有助于评估某个模型选择背后的理由,或确定哪些利益相关者参与了模型的生命周期。
2.新的 RAG 连接器和大型语言模型
作为其生成式 AI 服务更新的一部分,AWS 已向 Amazon Bedrock 添加了新的 RAG 连接器,以允许开发人员在更多种类的数据源上建立模型。
Philomin 表示,除了 Amazon S3 之外,开发人员现在还可以使用 Salesforce、Confluence 和 SharePoint for RAG 的连接器。他表示,SharePoint 连接器目前处于预览阶段。
AWS 还宣布,它将在 Bedrock 中添加微调Anthropic 的 Claude 3 Haiku 的功能。据 Philomin 称,微调 Claude 3 Haiku 的功能目前处于预览阶段,目前尚未在任何其他云服务提供商上提供,并且受到企业客户的热烈追捧。
其他更新包括 Amazon MemoryDB 向量搜索的普遍可用性和 Agents for Bedrock 的新功能。
Philomin 表示:“现在,代理可以在多个交互中保留记忆,记住你上次离开的位置,并根据之前的交互提供更好的建议。”他指出,代理现在可以解释代码来处理复杂的数据驱动用例,例如数据分析、数据可视化、文本处理、求解方程式和优化问题。
3.Amazon App Studio 助力用自然语言开发应用程序
AWS 周三还展示了 AWS App Studio,这是一项基于生成式 AI 的托管服务,允许任何企业用户使用自然语言提示构建和部署应用程序。
AWS 在一份声明中表示:“使用 App Studio,用户只需描述他们想要的应用程序、他们希望它做什么以及他们想要集成的数据源,App Studio 就可以在几分钟内构建一个应用程序,而专业开发人员可能需要几天的时间才能从头开始构建类似的应用程序。”该公司表示,App Studio 的生成式 AI 助手消除了学习任何低代码工具的需要。
Amazon App Studio 可能会与 谷歌的 Vertex AI Studio 和 微软的 Copilot Studio等竞争对手的产品展开竞争。
AWS 还宣布全面推出 Amazon Q Apps,这是 Amazon Q Business 中的一项功能,曾在去年的 AWS re:Invent 大会上展示过。
AWS 表示:“借助 Amazon Q Apps,企业用户可以在几秒钟内从对话转变为基于公司数据的生成式 AI 应用。用户只需在提示中描述他们想要的应用程序,Amazon Q 就会立即生成它。”该公司补充说,Amazon Q 允许用户从现有对话中生成应用程序。