刚刚,Mistral AI最新磁力链放出!8x22B MoE模型,281GB解禁

人工智能 新闻
初创团队Mistral AI再次放出一条磁力链,281GB文件解禁了最新的8x22B MoE模型。

一条磁力链,Mistral AI又来闷声不响搞事情。

281.24GB文件中,竟是全新8x22B MOE模型!

图片

全新MoE模型共有56层,48个注意力头,8名专家,2名活跃专家。

而且,上下文长度为65k。

图片

网友纷纷表示,Mistral AI一如既往靠一条磁力链,掀起了AI社区热潮。

对此,贾扬清也表示,自己已经迫不及待想看到它和其他SOTA模型的详细对比了!

图片

靠磁力链火遍整个AI社区

去年12月,首个磁力链发布后,Mistral AI公开的8x7B的MoE模型收获了不少好评。

基准测试中,8个70亿参数的小模型性能超越了多达700亿参数的Llama 2。

它可以很好地处理32k长度的上下文,支持英语、法语、意大利语、德语和西班牙语,且在代码生成方面表现出强大的性能。

今年2月,最新旗舰版模型Mistral Large问世,性能直接对标GPT-4。

不过,这个版本的模型没有开源。

Mistral Large具备卓越的逻辑推理能力,能够处理包括文本理解、转换以及代码生成在内的复杂多语言任务。

也就是半个月前,在一个Cerebral Valley黑客松活动上,Mistral AI开源了Mistral 7B v0.2基础模型。

这个模型支持32k上下文,没有滑动窗口,Rope Theta = 1e6。

现在,最新的8x22B MoE模型也在抱抱脸平台上上线,社区成员可以基于此构建自己应用。

图片

责任编辑:张燕妮 来源: 新智元
相关推荐

2023-12-11 09:23:00

AI模型

2024-10-17 18:52:41

2024-09-12 14:19:59

2024-05-30 12:50:05

2023-12-11 19:16:25

2024-05-06 08:25:00

AI模型

2024-03-25 08:00:00

2024-10-23 09:30:00

2024-02-27 13:38:16

微软OpenAI模型

2024-01-10 17:10:53

数据训练

2023-12-11 19:08:59

AI模型

2024-03-05 09:00:00

大型语言模型Mistral-7b人工智能

2024-01-02 09:55:26

AI模型

2023-12-12 13:16:00

模型训练

2024-02-01 14:56:13

GPT-4开源模型

2024-01-16 12:10:33

模型数据

2024-07-17 12:13:11

2024-01-22 09:02:00

AI训练
点赞
收藏

51CTO技术栈公众号