51CTO首页
AI.x社区
博客
学堂
精品班
免费课
企业培训
鸿蒙开发者社区
WOT技术大会
AIGC创新中国行
IT证书
公众号矩阵
移动端
短视频
免费课程
课程排行
直播课
软考学堂
全部课程
厂商认证
IT技术
2024年软考
PMP项目管理
软考资讯
在线学习
文章
资源
问答
课堂
专栏
直播
51CTO
鸿蒙开发者社区
51CTO技术栈
51CTO官微
51CTO学堂
51CTO博客
CTO训练营
鸿蒙开发者社区订阅号
51CTO题库小程序
51CTO学堂APP
51CTO学堂企业版APP
鸿蒙开发者社区视频号
AI.x社区
首页
文章
课堂
直播
评选
登录/注册
51CTO
中国优质的IT技术网站
51CTO博客
专业IT技术创作平台
51CTO学堂
IT职业在线教育平台
鲁班模锤1
LV.1
基于开源技术生态,跟踪与普及人工智能、隐私计算、区块链等技术
帖子 2
声望 44
关注 0
粉丝 0
私信
关注
主帖 2
回帖
编码大模型系列:Meta创新的“代码编译优化”的LLM
原创
精华
大型语言模型(LLM)已在各种软件工程和编码任务中展现出卓越的能力。然而,它们在代码和编译器优化领域的应用仍未得到充分探索。训练LLM需要大量资源,需要大量的GPU时间和大量的数据收集。Meta语言模型编译器(LLMCompiler),这是一套专为代码优化任务设计的强大、公开可用的预训练模型。LLMCompiler建立在CodeLlama的基础上,增强了对编译器中间表示(IR)、汇编语言和优化技术的理解。该模型已在546B的LVMIR和汇编代码的庞大语料...
1天前
71浏览
0点赞
0回复
0收藏
俯视LLM的灵魂:一文搞懂稀疏自动编码器
原创
精华
稀疏自动编码器(SAE)最近因机器学习模型的可解释性而变得流行(尽管SAE自1997年以来一直存在)。机器学习模型正在使LLMs变得越来越强大和有用,但它们仍然是黑匣子,如何看穿LLM的灵魂,且若能理解它们是如何工作的,那对于大模型的进化有足够的帮助和启示意义。使用SAE,可以开始将模型的计算分解为可理解的组件。本文将简介的介绍下SAE的工作原理,然后读者可以回头去温习“大模型的灵魂解读:AnthropicAI的Claude3Sonnet可...
5天前
167浏览
0点赞
0回复
0收藏
1
1
获得成就
已积累
79
人气
获得
0
个点赞
获得
0
次收藏
客服