一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

人工智能 新闻
专家混合 (MoE) 是 LLM 中常用的一种技术,旨在提高其效率和准确性。这种方法的工作原理是将复杂的任务划分为更小、更易于管理的子任务,每个子任务都由专门的迷你模型或「专家」处理。

「高端」的开源,往往采用最朴素的发布方式。

昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。

图片

没有长篇官方博客,没有刻意加速的 Demo,这家公司算是当下大模型领域的「一股清流」。

打开一看,发现是接近 87 GB 的种子:

图片

参数配置什么样?很多人放弃了周末,第一时间下载运行起来。

看上去,Mistral 8x7B 使用了与 GPT-4 非常相似的架构,但是「缩小版」: 

  • 8 个专家总数,而不是 16 名(减少一半) 
  • 每个专家为 7B 参数,而不是 166B(减少 24 倍)
  • 42B 总参数(估计)而不是 1.8T(减少 42 倍)
  • 与原始 GPT-4 相同的 32K 上下文

在发布后 24 小时内,已经有开发者做出了在线体验网站:https://replicate.com/nateraw/mixtral-8x7b-32kseqlen

有研究者称:「闭源大模型走到结局了。」

图片

这周已经引发群嘲的谷歌,也再次被 Cue 到:

图片

专家混合 (MoE) 是 LLM 中常用的一种技术,旨在提高其效率和准确性。这种方法的工作原理是将复杂的任务划分为更小、更易于管理的子任务,每个子任务都由专门的迷你模型或「专家」处理。

具体来说,「专家层」是较小的神经网络,经过训练在特定领域具有高技能,每个专家处理相同的输入,但处理方式与其特定的专业相一致;「门控网络」是 MoE 架构的决策者,能评估哪位专家最适合给定的输入数据。网络计算输入与每个专家之间的兼容性分数,然后使用这些分数来确定每个专家在任务中的参与程度。

我们都知道,OpenAI 团队一直对 GPT-4 的参数量和训练细节守口如瓶。早些时候,有人爆料 GPT-4 是采用了由 8 个专家模型组成的集成系统。后来又有传闻称,ChatGPT 也只是百亿参数级的模型(大概在 200 亿左右)。

传闻无从证明,但 Mistral 8x7B 可能提供了一种「非常接近 GPT-4」的开源选项。从模型元数据中可以看出,对于每个 token 的推理,Mistral 8x7B 仅使用 2 个专家。

更让人感觉有趣的是,这是该公司官方账号自开通以来发布的第三条内容,两次重要发布均无文字说明,配图什么的更是不存在:

图片

9 月底的那条链接发布的是 Mistral 7B,该模型至今仍被称为「最好的 7B 模型」,在每个基准测试中都优于 Llama-2 13B,并且在代码、数学和推理方面优于 LLaMA-1 34B。

Mistral AI 成立于 2023 年 5 月,是一家法国人工智能初创公司,也是为数不多来自欧洲的大模型开源领域的明星团队。

Mistral AI 曾在 6 月获得了创纪录的 1.18 亿美元种子轮融资,还是在仅有 7 页 PPT 的情况下,据说这是欧洲历史上最大的种子轮融资。

图片

Mistral AI 团队成员。

公司创始人之一 Arthur Mensch 曾在 10 月份向《金融时报》表示,Mistral AI 的技术比美国的一些强大竞争对手开发的技术更高效、成本更低。

技术实力的优越,也为这家公司带来了投资者的持续关注。

近日,《金融时报》报道了 Mistral AI 新一轮融资的动态:新一轮融资约 4 亿欧元,主要由股权组成,可能在下周官宣。目前,公司的最新估值在 20 亿欧元左右。

知情人士透露,新一轮融资由硅谷著名风投 Andreessen Horowitz 牵头,其他参与者还包括英伟达、Salesforce、General Catalyst、法国巴黎银行等。

Mistral AI 的其他投资者还包括谷歌前 CEO 埃里克・施密特 (Eric Schmidt)、法国电信亿万富翁泽维尔・尼尔 (Xavier Niel) 和法国国家支持的投资银行 Bpifrance。

这篇报道还提到,Arthur Mensch 表示「虽然公司尚未赚到任何钱,但预计这种情况将在年底前发生改变,因为该公司准备了一个新平台,供客户访问其人工智能模型。」

参考链接:https://www.ft.com/content/ea29ddf8-91cb-45e8-86a0-f501ab7ad9bb

责任编辑:张燕妮 来源: 机器之心
相关推荐

2024-04-10 13:37:05

2024-01-16 12:10:33

模型数据

2024-01-10 17:10:53

数据训练

2023-12-11 19:16:25

2024-01-02 09:55:26

AI模型

2019-11-06 15:16:12

16GB8GB内存

2024-09-12 14:19:59

2023-12-12 13:16:00

模型训练

2024-09-05 14:25:00

训练代码

2020-07-15 09:29:23

Python开发工具

2024-01-12 17:25:45

MoE模型开源人工智能

2023-12-09 13:32:21

GPT-4MoE架构开源大模型

2018-07-30 11:03:08

4GB内存8GB

2022-05-25 08:01:37

WHERESQL 语句

2024-01-19 12:51:00

AI数据

2024-11-11 13:24:02

2024-03-05 09:00:00

大型语言模型Mistral-7b人工智能

2023-05-18 14:08:31

AI开源
点赞
收藏

51CTO技术栈公众号