AI大神李沐老师时隔1年多,终于回归B站“填坑”经典论文精读系列了!
没错,最新主角儿还是Llama-3.1:
在这个18分钟左右的视频中,李沐老师手把手教我们读Llama-3.1技术论文,甚至还爆料了一些八卦。(指路7分50秒左右)
他提到,Llama团队在训练最大模型时,其实一开始同时训练了MoE模型和稠密模型,但是前者后来失败了,所以最后只发了一个简单版本。
更多细节大家可以去看原视频,悄咪咪透露,李沐老师刚一上线,播放瞬间破万了。
一大批研究僧们正闻风赶来,瞧瞧热一就知道大家的精神状态了:
与此同时,大模型竞技场排名更新,Llama-3.1-405B代表开源模型首次跻身竞技场前三,仅次于GPT-4o和Claude-3.5-Sonnet。
当然了,这一结果可能并不意外,Meta官方早就暗戳戳地将这几个作了一番比较。
同样是人类评估,Llama-3.1-405B和另外两个打得不分上下。
另外我们看到,Llama-3.1-405B不仅整体能打,在单项(编码、数学、指令遵循、硬提示)中依然牢牢占据前三。
值得一提的是,Llama-3.1-70B也来到了总榜第9,整体置信水平相较之前有了大幅提高。
不过最令人惊喜的是,与此同时,国外网友也对405B的新战绩发来贺电,更有人“贴心”提醒:
405B只接受过“计算最优”训练,他们(指Meta)本来可以继续前进,下一次迭代将会是惊人的。
Okk,知道Llama-3.1-405B很腻害了!
这不,仅发布一周,网友们已经玩出花了……
拿来搞生产
搞生产第一步,先在本地跑起来试试~
Open Interpreter(一个让LLMs在用户本地运行的项目)技术社区经理为我们展示了他的成果——
让Llama-3.1-8B在树莓派上运行,仅用到CPU。
,时长00:36
方法嘛,只需在GitHub或Hugging Face下载llamafile文件,配置参数后即可。
据他透露, 这项尝试使用了Raspberry Pi 5(8GB内存)、M.2 Hat和Hailo AI模块,且采用了4-bit quantization(4位量化)。
不过小哥也调侃,这家伙运行几句话就能真·烧干CPU。
接下来,小哥已经在网友的催促下磨刀霍霍向405B了~
除了上面这个例子,还有网友用Llama-3.1-405B在任何GitHub仓库上开始创建聊天机器人。
,时长01:22
而且是不花钱那种,Hugging Face免费提供了创建新助手的功能。
不过Groq工程师Rick Lamers在尝试后提出质疑:
当前的RAG管道可能存在问题,容易产生幻觉。
但不管怎样,网友们想尝试的心还是拦不住了~
另外,除了实实在在拿出东西,还有网友拿Llama-3.1-405B放起了烟雾弹。
就在刚刚,网友Hassan宣布:
使用Llama-3.1-405B生成完整的React应用程序。
好家伙,这下开发APP岂不是更简单了!
虽然还未正式开源,但底下网友们已经开始排好队了。
更多玩法欢迎大家自行解锁~
李沐Llama3.1论文精读
https://www.bilibili.com/video/BV1WM4m1y7Uh/
榜单完整数据:
https://chat.lmsys.org/?leaderboard