Databricks 投资 Mistral 并将其 AI 模型引入数据智能平台
由 Ali Ghodsi 领导的快速增长的数据基础设施公司 Databricks 宣布与总部位于巴黎的 Mistral 建立合作伙伴关系,Mistral 是一家资金雄厚的初创公司,凭借其不断增长的高性能大型语言模型 (LLM) 系列在全球 AI 社区掀起了波澜——其中许多是开源的。
根据这项协议,Databricks 正在向 Mistral 投资一笔未披露的金额,增加其 A 轮融资,并将精选的 Mistral LLM 引入其数据智能平台。
此举将直接集成这些模型,使企业用户更容易将它们与生成式 AI 应用程序的数据一起使用,而无需对 Databricks 平台已经提供的安全、隐私和治理进行任何更改。
这一发展标志着Mistral又增加了一个著名的分销合作伙伴,该公司一直在通过行业合作伙伴关系积极向前发展。就在最近,它宣布与Snowflake建立类似的合作伙伴关系,Snowflake通过其数据云产品直接与Databricks竞争,以及Microsoft,后者引发了对企业捕获和监管机构兴趣的批评。
选择要原生集成的模型
在今天发表的一篇博客文章中,Databricks 证实,与 Mistral 的合作将导致该公司的两个文本生成模型的原生集成——Mistral 7B 和 Mixtral 8x7B,两者都是开源的。
前者是一个 70 亿参数的小型 transformer 模型,以 8k 上下文长度训练,服务效率非常高。同时,后者是专家模型 (SMoE) 的稀疏混合,支持 32k 的上下文长度,并且能够处理英语、法语、意大利语、德语和西班牙语。Mixtral 8x7B 甚至在包括 GSM-8K 和 MMLU 在内的多个基准测试中优于 Meta 的 Llama 2 70B(从中训练)和 OpenAI 的 GPT-3.5,同时拥有更快的推理速度。
Databricks 数据智能平台的用户现在可以在平台的市场上找到这两种模型,并提供有关其功能和使用它们的不同方式的信息。
Databricks 表示,用户可以通过平台控制台在 Mosaic AI Playground 中试验模型,通过 Mosaic AI Model Serving 将它们用作优化的模型终结点,或者使用托管在平台上的专有数据(Mosaic AI Foundation Model Adaptation)自定义它们,以针对特定用例。
“Mistral AI 模型现在可以在 Databricks 上以多种方式使用和自定义,Databricks 为构建、测试和部署端到端生成式 AI 应用程序提供了最全面的工具集。无论是从预训练模型的并排比较开始,还是通过按代币付费来使用模型,都有几种快速入门选项。
虽然这个消息对于希望在平台上使用其数据资产构建一代 AI 应用程序和解决方案的 Databricks 客户来说是个好消息,但重要的是要注意,该合作伙伴关系没有提到 Mistral Large,这是 Mistral 的最新型号,仅次于 GPT-4,性能优于 Anthropic 的 Claude 2、Google 的 Gemini Pro 和 GPT-3.5,具有五种语言的原生能力和 32K 代币的上下文窗口。Snowflake已将该模型与Mixtral 8x7B和Mistral 7B一起集成到其数据云的Cortex服务中。
当 VentureBeat 联系时,Databricks 发言人表示,目前还没有关于 Mistral Large 集成的信息。Databricks 提供的其他开源、商业可用的模型包括 Meta 的 Llama-2、CodeLlama、Stable Diffusion XL 和 Mosaic 的 MPT 系列。
Mistral继续其合作狂潮
Databricks 和 Snowflake 并不是 Mistral 的唯一合作伙伴。
该公司于 2023 年 6 月筹集了欧洲有史以来最大的种子轮融资,并很快进行了大规模的 A 轮融资,该公司非常注重行业参与,以扩大其影响力并巩固其在由 OpenAI、Anthropic 和谷歌主导的 AI 类别中作为供应商信赖参与者的地位。
就在几周前,它从Microsoft获得了1600万美元的投资,将其模型添加到Azure云平台。这笔交易使Mistral成为继OpenAI之后第二家在Microsoft平台上提供其模型的公司。
然后,它还与IBM签署了单独的合作伙伴关系,使Mistral 8x7B在WatsonX上可用,并与Perplexity和Amazon合作。看看这家初创公司还能获得哪些其他合作伙伴关系来提高其知名度并推动跨行业的人工智能用例,这将是一件有趣的事情。
本文转载自 AI技术和商业思维 ,作者: 学习中的Leo