开源闭源争论不休,浅谈大模型开源和闭源

发布于 2024-11-4 11:05
浏览
0收藏

写在前面

前一阵子的开源和闭源之争炒的比较火热,之前一直想写点什么,由于太懒就没写,但是最近开源模型真的太火爆了,前有Grok-1、Mistral-8x22、Llama3,后有Yi-1.5、Deepseek-V2、Qwen1.5-110B,开源模型现在真的卷到飞起。

今天简单聊聊下面的几点内容,欢迎大家拍砖,给出不同看法:

  • 开源模型有哪些优势
  • 开源模型与闭源模型的差距会越大还是越小
  • 开源模型哪家强

开源模型有哪些优势

个人认为,开源大模型是让大模型行业卷起来的根源。

在ChatGPT刚刚出来的时候,业内满是焦虑;在Llama开源之后,业界满是兴奋,因为更多人看到了光。

开源的优势主要是人多,可能有人会反驳说AI需要高精尖的人才,但老话不是常说三个臭皮匠顶个诸葛亮嘛。(很多大佬其实也是没有什么资源,从头预训练的资源消耗真的太大了)

人一多,点子就多,就会衍生出很多大模型相关Trick,就像如何进行上下文扩展(NTK、YaRN、LongLora等)、如何小代价进行模型Merge得到更大更好的模型(SOLAR、Llama-Pro等)、如何更好更高效地进行人类偏好对齐(DPO、ORPO等)等等等。如果没有好的开源模型,很多研究也许就没法涌现出来。

更多人涌入到大模型相关研究中,总会给大模型的发展带来积极的作用。闭源大模型团队的人也可以从外界汲取一些方法,来进一步提升模型本身效果。

随着微调项目的开源、部署框架的不断开源、进步,现在很多中小企业和开发者可以很快地用上大模型,摸清大模型落地的边界,让大模型产品有更多的玩法、可操作性更强,进而会推动AI的落地发展。

就像网上基于通义千问的开源大模型Qwen1.5-110B模型微调后的效果远超原始模型一样,开源亦有能量。

开源闭源争论不休,浅谈大模型开源和闭源-AI.x社区

当然上面只是从技术思维来讲开源的好处,但不可否认的是开源的商业模式确实不明朗,很难避免白嫖的现象。

我觉得从现在GPU的成本来看,很多选择开源模型的企业还是在10B参数规模,太大了成本也兜不住,还不如选择API,那么这时候占据开源市场的头部企业的机会不就来了嘛。

开源大模型跟闭源大模型最后应该是相辅相成的,只是不同人群用的不同。穷玩家、愿意钻研的玩家、需要有更多私有化定制的玩家,可能选择去玩开源大模型。富有玩家、想伸手就用的玩家、追求更高逼格的玩家,可能选择去玩闭源大模型。

开源模型与闭源模型的差距

个人认为,开源大模型跟闭源大模型最后应该是相辅相成的

开源闭源争论不休,浅谈大模型开源和闭源-AI.x社区

lmsys.org对战分数图

真的不敢想想大模型发展会这么迅猛,不敢想想之前惊为天人的GPT3.5都已经不配跟头部开源模型对标,都在对标GPT4。

从对战榜单上来看,头部模型中,开源模型占比不在少数,可以感觉出来差距在减小。从体验上来说,头部开源模型得效果也是不错的。

开源闭源争论不休,浅谈大模型开源和闭源-AI.x社区

闭源有数据壁垒,确实很难追,只能靠头部开源组织发力,个体或者小组织只能缝缝补补啦,反正Pre-train真是做不了。

但也请别小瞧缝缝补补的工作,反正一些任务微调微调72B模型真能干过GPT4的。

开源模型哪家强

现在开源模型还是比较多,但国内的话,目前我认为是阿里云的通义千问,强不仅在效果上,还体现在全面性上

Qwen是真开,1.5系列从0.5B、1.8B、7B、14B、32B、72B开到现在的110B、还有Code系列模型、MOE系列模型,1系列还有VL模型,全全全。

不管你需要多大尺寸的模型,Qwen都能满足,并且效果都很棒。在HuggingFace推出的开源大模型排行榜Open LLM Leaderboard上,Qwen1.5-110B超越了Meta的Llama-3-70B模型,冲上榜首,证明其实力真的很强。

开源闭源争论不休,浅谈大模型开源和闭源-AI.x社区

据不完全统计,现在Qwen开源模型下载了超过了700万。

魔搭社区现在也是很能打,国内HuggingFace无法访问的情况下,下载模型真得靠魔搭。同时还有免费GPU使用时长(偶尔测测小模型完全够用),其他配套的模型训练项目、Agent项目就不说了。

反正是应有仅有,很难不爱。

当然国内也有很多其他的开源模型,但是论全面,真还得是Qwen。

本文转载自​NLP工作站​,作者: 刘聪NLP ​​

收藏
回复
举报
回复
相关推荐