sbf_2000
LV.4
这个用户很懒,还没有个人简介
声望 557
关注 0
粉丝 1
私信
主帖 67
回帖
图片1.问题:单一模型自我提升的瓶颈近年来,大语言模型(LLMs)如GPT4取得了显著进展,但这些模型的性能仍然受限于已有的训练数据。尽管通过生成合成数据进行自我微调成为提升模型的主流方法,但随着微调轮次的增加,性能提升会迅速进入“收益递减”状态,模型的多样性和推理能力难以进一步提高。这种瓶颈限制了语言模型在复杂推理任务中的表现。图片2.方法:多智能体协作微调(MultiagentFinetuning)论文提出了一种全新框架...
2025-01-22 13:04:33 442浏览 0点赞 0回复 0收藏
图片1.科研难题:时间长、成本高、效率低科学发现往往是一个漫长且昂贵的过程,许多优秀的研究创意因资源限制被搁置。现有的自动化工具尝试让大语言模型(LLMs)充当“科研助手”,但却面临成果质量、可行性以及研究细节等问题。为解决这些痛点,AgentLaboratory应运而生——这是一种基于LLM的全自动科研框架,它不仅能高效完成文献综述、实验设计和代码生成,还能输出完整的研究报告。图片2.核心创新:让AI协助而非取代科学家A...
2025-01-13 11:17:54 312浏览 0点赞 0回复 0收藏
1、当ChatGPT爆火后,大语言模型LLM的完整修炼之路图片从ChatGPT横空出世以来,大语言模型(LLM)已经成为了AI领域最炙手可热的研究方向。最近发表的这篇综述性论文为我们全面解析了LLM从训练到推理的完整技术路线图。图片纵观LLM的发展历程,我们见证了一个重要的技术演进过程:从最早的统计语言模型(SLM),到基于神经网络的语言模型(NLM),再到以ELMo为代表的预训练语言模型(PLM)。而真正的突破性进展,则是Transformer架构的...
2025-01-03 13:10:38 367浏览 0点赞 0回复 0收藏
​1、AIAgent的"紧箍咒":一文读懂agent的治理难题与解决方案图片随着AIAgent能力的不断提升,如何确保这些能够自主完成复杂任务的智能代理安全可控,成为了一个亟待解决的问题。一篇最新发表的白皮书深入分析了AIAgent的治理挑战,并提出了一套切实可行的安全治理框架。让我们先看一个生动的例子:假设一个AI助手被要求帮用户购买制作日式芝士蛋糕的材料,但它却错误地订了一张飞往日本的昂贵机票。这个案例揭示了AIAgent治理...
2025-01-03 13:03:04 503浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期的论文:1、为什么Transformer难以学会搜索?一项新研究揭示关键原因图片搜索是许多重要任务(如推理、规划和导航)的核心能力,但最新研究表明,Transformer架构的大模型在搜索任务上表现不佳。那么,这是数据不足、模型参数不够,还是Transformer架构本身的限制?为探究这一问题,研究者采用了一个基础的图连通性问题作为测试平台,深入分析Transfo...
2024-12-25 11:57:11 428浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期的论文:1、让AI自主进化:语言代理的适配机制激活新范式2、OmniDocBench:为PDF文档解析设立多维“标杆”1、让AI自主进化:语言代理的适配机制激活新范式图片人工智能代理是否可以像人类一样,根据任务需求自主调整自己的工作方式?现有语言代理(LanguageAgents,LAs)通常依赖固定的机制或预设顺序来完成任务,但这限制了它们在开放世界场景中的灵...
2024-12-17 12:50:13 613浏览 0点赞 0回复 0收藏
​1、AI玩词谜游戏:编剧式提示让大模型实力大增!图片在人工智能的创新世界里,研究者提出了一个颠覆性的思路:将大语言模型比作"方法派演员"。就像演员需要深入理解角色,大模型也可以通过精心设计的"剧本"和"表演指导"来提升解决复杂问题的能力。这项研究以《纽约时报》的连接词谜游戏为实验场景,展示了这一创新思路的惊人效果。图片研究团队设计了四个关键原则:将提示工程视为编剧和导演、强调表演需要充分准备、将复杂任...
2024-12-12 12:47:15 436浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、亚马逊Nova大模型家族:AI技术的新里程碑2、1000个人的数字分身:AI如何精准模拟人类行为?1、亚马逊Nova大模型家族:AI技术的新里程碑图片亚马逊发布了Nova模型家族,与传统模型不同,Nova不仅仅是又一个AI模型,而是一个全面的、定制化的智能解决方案生态系统。该家族包括Pro、Lite、Micro、Canvas和Reel五个不同定位的模...
2024-12-05 11:44:20 712浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、7大顶尖AI修bug系统大PK,谁才是真正的"代码医生"?2、法语版BERT迎来重大升级!CamemBERT2.0让AI更懂"法式幽默"1、7大顶尖AI修bug系统大PK,谁才是真正的"代码医生"?随着大语言模型(LLM)的崛起,AI自动修复代码bug已经成为现实。但在众多基于LLM的修bug系统中,哪些表现更出色?哪些方案更可靠?一项针对7个顶尖系统的研...
2024-11-27 15:12:44 484浏览 0点赞 0回复 0收藏
1、重磅揭秘:RAG系统的检索机制真的需要那么"完美"吗?在人工智能领域,RAG(检索增强生成)技术正在成为解决大语言模型局限性的关键方案。但是,一个有趣的问题出现了:RAG系统中的检索部分,真的需要追求100%的准确性吗?最近,一项研究给出了令人意外的答案。这项研究首次深入探讨了RAG系统中检索器和阅读器两大组件的关系。研究团队通过大量实验发现,即使降低检索准确度,对最终的问答效果影响也相对较小。换句话说,我们...
2024-11-20 14:59:20 569浏览 0点赞 0回复 0收藏
一、背景最近在看腾讯最新混元大模型的Paper时([2411.02265]HunyuanLarge:AnOpenSourceMoEModelwith52BillionActivatedParametersbyTencent[1]),看到了如下关于计算Budget的公式由于我们的工作中也会经常根据计算资源Budget评估LLM预训练时间,而该公式与我们平常的计算方式不太一致;此外,如下图所示,我们也看到很多文章中将上述公式中的第二项理解为长序列情况下Attention的额外计算开销,而将6ND>9.6ND看成Router引入的...
2024-11-14 15:09:38 2271浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:LoRA或许暗藏玄机数字也会骗人?GPT4都会说9.11>9.9,人工智能的"数学残障"有救了吗?1、LoRA或许暗藏玄机近期,一项重磅研究揭示了AI训练中广受欢迎的LoRA方法可能存在隐患。虽然LoRA能让模型训练时节省90%以上的显存,在目标任务上表现堪比完整微调,但研究人员发现这种"看似完美"的方法背后,或许并不如表面那么美好。研究...
2024-11-14 14:52:12 538浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、LLM的"数数"能力有多弱?一个意想不到的"罪魁祸首"2、专家模型的潜在隐患:用户提示被窃取的背后1、LLM的"数数"能力有多弱?一个意想不到的"罪魁祸首"你相信大型语言模型(LLM)连简单的"数数"都可能做不好吗?近期一篇震惊学术界的论文揭示了这个令人惊讶的事实:即便是号称"无所不能"的AI模型,在面对基础计数任务时也可...
2024-11-01 15:33:01 530浏览 0点赞 0回复 0收藏
1、327个样本打破常规,这个"OpenAIo1复制之旅"有点燃人工智能领域最近又掀起一阵波澜——OpenAI发布了令人瞩目的O1模型。然而,这个模型的具体细节却如同蒙着面纱一般神秘。面对这种情况,一群研究者决定开启了一场别开生面的"O1复制之旅",试图揭开这层面纱。最引人注目的是,研究团队提出了一个创新的"journeylearning(旅程学习)"范式。与传统的"死记硬背"式学习不同,这种方法让模型不仅要学会解决问题,还要学习整个探索...
2024-10-29 11:44:23 732浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、大模型要"断粮"了?最新综述揭示AI数据困境与突围之道2、IBM重磅发布Granite3.0:8B参数秒杀同级别大模型,还能随便商用!3、全球首个39语言多模态大模型开源,告别"英语霸权"1、大模型要"断粮"了?最新综述揭示AI数据困境与突围之道人工智能领域有一个有趣的悖论:模型越来越大,但优质数据的增长速度却远远跟不上。就像一...
2024-10-23 13:34:05 638浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、如何让LLM学会"试错"2、LLM竟然学会了"自我反省",它真的有自我意识吗?1、如何让LLM学会"试错"你有没有想过,为什么人工智能经常会犯"愚蠢"的错误?原因可能让你意外:因为我们一直在教它"做一个完美主义者"!最新研究表明,让AI学会"试错",反而能让它变得更聪明。想象一下,如果从小到大,你只被允许看到正确答案,从来...
2024-10-21 12:41:43 841浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、AI界的"小而美":MistralAI的最新力作如何重新定义边缘计算2、多智能体协作让大语言模型训练效率暴增1、AI界的"小而美":MistralAI的最新力作如何重新定义边缘计算在人工智能飞速发展的今天,一个令人振奋的消息从MistralAI传来。就在Mistral7B模型发布一周年之际,这家创新公司再次为我们带来了惊喜:Ministral3B和Ministr...
2024-10-17 15:41:00 824浏览 0点赞 0回复 0收藏
1、AI模型升级有妙招!"废物利用"让大语言模型更强大想象一下,如果能把你的旧手机变成最新的智能设备,是不是很酷?在AI领域,研究人员就实现了类似的"魔法"!他们提出了一种叫做"upcycling"的方法,可以将现有的大语言模型(LLM)升级成更强大的"专家混合模型"(MoE)。这项技术不仅能提高模型性能,还能大幅节省训练成本和时间。那么,这种"升级魔法"是如何实现的呢?研究团队进行了大量实验,探索了各种升级技巧和参数设置...
2024-10-14 14:58:35 880浏览 0点赞 0回复 0收藏
1、LLM训练的隐秘危机:1%的合成数据或致模型崩溃在LLM快速发展的今天,一个令人担忧的现象正悄然出现——模型崩溃。研究发现,即便在训练数据中仅包含1%的合成数据,也可能导致LLM模型性能严重下降,无论如何增加训练数据量都无法提升效果。更令人意外的是,增加模型规模这一当前广泛采用的方法,非但不能缓解问题,反而可能加剧模型崩溃。研究团队通过理论分析和实验证明,在某些情况下,更大的模型可能会放大这种崩溃效应。...
2024-10-14 14:56:01 758浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:Aria:第一个多模态(文本代码图像视频)MoEPixtral12B:开源多模态AI的新标杆AI教学新突破:DataEnvGym让模型自我进化1、Aria:第一个多模态(文本代码图像视频)MoE论文标题:Aria:AnOpenMultimodalNativeMixtureofExpertsModel论文链接:https:arxiv.orgabs2410.05993在人工智能领域,一个重大突破悄然发生。名为ARIA的开源模...
2024-10-11 14:14:20 791浏览 0点赞 0回复 0收藏
获得成就
已积累 1.8w 人气
获得 1 个点赞
获得 0 次收藏