32B本地部署!阿里开源最新多模态模型:主打视觉语言,数学推理也很强

人工智能 新闻
对比近期开源的Mistral-Small-3.1-24B 、Gemma-3-27B-IT等, Qwen2.5-VL-32B在纯文本能力上也达到了同规模的SOTA表现。

就在DeepSeek-V3更新的同一夜,阿里通义千问Qwen又双叒叕一次梦幻联动了——

发布Qwen2.5-VL-32B-Instruct

此前开源家族视觉语言模型Qwen2.5-VL包括3B、7B和72B三种尺寸。

这一次的32B版本进一步兼顾尺寸和性能,可在本地运行。

同时经过强化学习优化,在三个方面改进显著:

  • 回答更符合人类偏好;
  • 拥有更强的数学推理能力;
  • 在图像解析、内容识别以及视觉逻辑推导等任务中,表现出更强的准确性和细粒度分析能力。

对比近期开源的Mistral-Small-3.1-24B 、Gemma-3-27B-IT等, Qwen2.5-VL-32B在纯文本能力上也达到了同规模的SOTA表现。在多个基准上,Qwen2.5-VL-32B甚至超过了72B。

图片

举个栗子,比如根据一张交通指示牌照片,Qwen2.5-VL-32B就能做如下精细的图像理解和推理:

我正在这条路上驾驶一辆大卡车,现在12点了。我能在13点之前到达110公里远的地方吗?

图片

Qwen2.5-VL-32B首先对时间、距离、卡车限速进行分析,然后分步骤条理清晰推算出正确答案:

图片

模型已经开源,尽管自己前往实测~

Qwen2.5-VL-32B更多表现示例

官方刚刚发布的技术博客中也放出了更多展示示例。

数学推理能力上,几何体分析也不在话下:

图片

同样是先有问题分析环节,然后再分四个小步骤推理正确答案:

图片

下面这种复杂难题也能解:

图片

能够依次类推,归纳出构造规律:

图片
图片
图片
图片

像下面这种图片理解就更不在话下了:

图片
图片

多轮深度提问也可以:

图片

模型开源,已能实测

现在,阿里已将Qwen2.5-VL-32B-Instruct放在了Hugging Face上。

图片

在Qwen Chat上就能直接体验Qwen2.5-VL-32B,感兴趣的童鞋可以试试。

图片

动作快的网友已经开始在MLX Community运行了:

图片

在Hacker News上,网友也就DeepSeek和Qwen的举动进行了新一轮热烈讨论。网友纷纷表示:

开源赢了,奥特曼错了。

图片

值得一提的是,春节期间,DeepSeek曾与阿里通义千问Qwen多次几乎同时发布新模型,这一次又双叒叕赶一块去了。

杭州,原来真的是商量着一起发???

责任编辑:张燕妮 来源: 量子位
相关推荐

2024-04-10 08:15:17

模型语言模型GPT

2025-03-25 12:11:08

2024-04-08 08:05:00

大模型人工智能开源

2024-08-30 15:19:22

2025-03-10 07:00:00

阿里开源QwQ-32B

2024-12-25 09:30:00

2023-06-06 14:09:32

模型开源

2025-03-06 08:11:25

2025-03-06 17:29:21

2024-04-02 09:17:50

AI数据开源

2024-11-13 09:39:13

2024-07-23 10:34:57

2025-03-04 09:00:00

2024-11-19 15:00:00

模型开源

2025-02-27 10:08:19

2024-12-12 08:18:50

2025-03-19 09:30:00

2024-11-22 08:22:58

2024-08-08 13:04:28

点赞
收藏

51CTO技术栈公众号