DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署

发布于 2025-1-23 11:11
浏览
0收藏

Hi,这里是Aitrainee,欢迎阅读本期新文章。

Deepseek R1正式发布。不是之前的Light版本,而是完整的R1。

性能与o1相当,还采用MIT开源协议,可以商用。现在能在Deepseek chat平台用,也提供API。

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

模型分两个版本:主力R1,和面向研究的R1-Zero。

R1-Zero没有监督微调,直接RL,是一个未经过对话偏好对齐监督微调的版本,专门为研究人员或希望自行微调模型的人提供。

正式发布的R1还是用了SFT阶段。

R1是671B参数的大模型,激活参数只有37B,基于Deepseek V3训练。特别强化了思维链和推理能力。

现在Cline或者Roocline中可以直接使用R1了。API获取:​​​https://platform.deepseek.com/usage​

在Roocline中这样设置:

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

Roocline是什么?看这里:

​全新免费的 RooCline 超越了Cline v3.1 ?!更快、更智能、更出色的Cline分叉!(自主AI编程、0门槛)​

作为测试,我们用前面写过一篇文章《​​从0到1用AI做了个AI服务网站, 全程没写一行代码​​》,把开头的那个三合一提示词扔给他:

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

让他创建一个Saas网站原型。那么提示词比较长,可以通过上面这篇文章获得。

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

挺不错的,Saas框架、前后端、登陆注册、生图都还可以。

其次,这是它在Cline中速度、消耗表:

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

youtube@WorldofAI

Deepseek官网直接Chat使用:

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

此外,还有6个蒸馏小模型:Qwen 1.5B、7B,Llama 8B,Qwen 14B、32B,还有Llama 系列。

这些微调模型使用由DeepSeek-R1生成的样本进行训练,这大大降低了思考模型的构建门槛。

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

这个操作很暖心,让不同需求的用户都能用上,从笔记本到服务器,都能找到合适的版本。

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

测试结果超出预期,最强的是Llama-70B。GPQA Diamond 65.2,比Claude 3.5还高。编程上,LiveCodeBench 57.5,CodeForces 1633,几乎能和o1-mini比肩。

Ollama已经可以部署了,很快也能用VLLM本地运行。

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区


R1价格很友好。API收费:输入每百万token 0.14美元(缓存命中),0.55美元(缓存未命中),输出2.19美元。对比o1:输入15美元,输出60美元。

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

再说完全靠强化学习,不需要监督微调这一条:

用硬编码规则计算奖励,而非使用学习型的奖励模型。学习型奖励模型可能会被强化学习策略“利用”或“作弊”,导致优化的结果偏离预期目标。就像AlphaZero,从零开始学习,不靠模仿人类。

训练过程中有意思的发现:模型的思考时间会自然增长,这不是预设的,是自发形成的。模型逐渐学会为复杂问题花费更多时间进行思考,体现出类似于“自我反思”和“探索行为”的能力。

这是高级智能行为的一种表现,表明模型具备了更深层次的推理能力。这种未被明确编码的能力,属于智能的“涌现特性”(emergent behavior)。

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

他们发明的GRPO比PPO更简单:去掉critic网络,用多个样本的平均奖励代替,简化了内存使用。这个方法,是他们2024年2月才提出的。

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

DeepSeek-R1-Zero的测试结果很有意思。

只靠强化学习,在AIME 2024上得到71.0分,MATH-500达到95.9分。虽然比o1-0912略低,但差距并不大。

特别是在MATH-500上,R1-Zero的95.9分超过了o1-mini的90.0分。这说明纯RL训练的模型,也能掌握复杂的数学推理。

LiveCode Bench上得到73.3分,比o1-mini的60.0分高出不少。

这个结果很重要:它证明了,不需要大量标注数据,单靠强化学习,AI也能学会思考和推理。这可能会改变我们训练AI的方式。

DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署-AI.x社区

R1,仅用几个月就达到了闭源大厂的水平,还提供了更实惠的价格。

最后,据官方所述,DeepSeek-R1还有几个地方需要提升,他们将继续努力:

通用能力上,函数调用、多轮对话、角色扮演和JSON输出,都不如V3版本。团队打算用长链推理来改进。

语言处理有点意思。现在主要针对中英文优化,其他语言容易混杂。比如用德语问,它可能用英语想,再用德语答。

提示词很敏感。少样本提示反而会影响性能,建议直接描述问题和输出格式,效果更好。

软件工程任务上,评估太慢影响了RL训练。计划用拒绝采样或异步评估来提速。

本文转载自 AI进修生​,作者: Aitrainee

收藏
回复
举报
回复
相关推荐