DeepSeek 又整活儿了。
宣布从2月24日启动“Open Source Week”(开源周),连续5天每天开源一个代码库。
DeepSeek 能推动国产AI的发展,不仅因为模型性能强,更因为它保持开放和开源。
开源意味着可以免费部署、使用,但更重要的是,它允许后来者在此基础上进行创新。
比如,最近发现一款产品问小白,他们2023年就在国内率先自研MoE模型架构。基于自研MOE大模型的优势,部署DeepSeek-R1,相当于双核驱动,运行速度非常快。
图片
下面是我随手测试的一个例子;
图片
生成确实很快,这就得益于问小白技术上的优化。
首先,采用多模块并行处理,其次,让DeepSeek模型回答之前,先用自研思考模型预处理,一次输出多个token,大幅提升生成速度。
之前也给朋友们分享过一些接入 DeepSeek-R1 的AI产品,体验下来发现问小白是最快、最稳并且功能最全的。
由于R1在推理方面的优势,我一般会用它来总结和分析热点新闻,最近比较关注求职招聘,我就会用问小白帮我总结分析。
对于新闻类的内容我们肯定希望能快点看到分析结果,这时候问小白的智能搜索+快速回答的优势就体现出来了,能让我们及时掌握AI方向最新的岗位和要求,从而提前准备。
另外,很多朋友使用大模型担心自己不会写提示词。但这个问题在R1这样的推理模型中不存在。
R1自带“思考”能力,所以相比与普通大模型,我们在第一次提问时候可以写比较短的提示词,一句话能描述清楚需求。
之后,再根据模型的思考和你的需求追问。这样,使用大模型的门槛更低,效率更高。
比如,上面的例子,我对“AI Agent”岗位感兴趣,我就会继续追问需要的技能。
图片
追问意味着要把当前问题和之前的聊天记录一起带入模型“思考”,输入的内容更长,模型就需要更多运算,因此容易导致“服务器繁忙”,这也是为什么大家感觉追问更容易失败的原因。
我使用问小白发现,追问依然也很快,确实可以说稳定。并且在输出内容的后面,会智能生成生成几个问题。
图片
点击其中一个,自动进入追问,帮你一步步深入解决问题。
无论是准备面试还是平时学习,难免要复习之前学过的知识。R1强大的推理、思考能力擅长帮你解决这类问题。
比如,下面这个经典的机器学习面试题,
图片
直接交给问小白。
图片
问小白的输出不但有公式推导,还有直观解释,学习效率比翻书查资料不知道快多少倍。
除了智能搜索功能,问小白也支持对文档、图片内容问答。尤其对于需要读论文、写论文或者做技术分享的朋友,非常有帮助。
图片
图片
对比用过的其他R1产品,要么仅搜索、要么仅R1,要么不支持文件上传,问小白支持的功能是最全的。