sbf_2000
LV.4
这个用户很懒,还没有个人简介
声望 577
关注 0
粉丝 1
私信
主帖 71
回帖
图片在大模型训练领域,显存一直是一个让研究者和开发者头疼的问题。特别是在进行长文本上下文训练时,动辄需要几百GB的显存需求,这让很多研究者望而却步。不过最近,AI基础设施优化团队Unsloth带来了一个重大突破他们推出的新算法可以让GRPO训练所需显存减少高达90%!文章公布了Llama3.1(8B)GRPO在Colab上notebook,见:https:colab.research.google.comgithubunslothainotebooksblobmainnbLlama3.1(8B)GRPO.ipynb1、从510GB...
7天前 379浏览 0点赞 0回复 0收藏
图片想知道ChatGPT这样的大语言模型是如何炼成的吗?今天带你揭开大模型训练的神秘面纱,看看在数百个GPU上协同训练大语言模型的技术秘密。为什么这很重要?曾几何时,训练大语言模型是少数顶级研究实验室的专利。虽然现在我们可以下载Llama或DeepSeek这样的开源模型,但最具挑战性的部分——训练代码、知识和技术仍然隐藏在复杂性之后。这些关键知识分散在众多论文和私有代码库中,让大多数开发者和研究者望而却步。图片图片深...
7天前 260浏览 0点赞 0回复 0收藏
图片1、为什么我们需要更强大的AI推理能力?在当今时代,人工智能不仅要能够处理简单的对话和生成任务,更要具备像人类一样的推理能力。无论是解决复杂的数学问题,还是编写高质量的代码,甚至是进行科学推理,这些都需要AI具备强大的推理能力。而今天要介绍的OpenThinker32B,正是在这个方向上取得的重要突破。图片2、OpenThinker32B:开源推理的新标杆这个模型最令人兴奋的地方在于它的开放性和强大性能。研究团队通过三个关...
2025-02-14 14:02:30 301浏览 0点赞 0回复 0收藏
图片RLHF的规模化之谜:真的值得无限投入算力吗?强化学习自人类反馈(RLHF)已成为大语言模型(LLM)后训练的关键步骤,帮助ChatGPT、Llama等模型更符合人类偏好。然而,RLHF是否像预训练那样,能通过增加算力和数据带来持续提升?清华大学与知乎AI的最新研究对此进行了系统性分析,揭示了RLHF的规模化极限,并提出优化策略。图片研究方法:三大核心变量的深入探究研究团队围绕模型规模、数据多样性、推理计算预算三大因素,训...
2025-02-06 15:15:36 329浏览 0点赞 0回复 0收藏
图片1.问题:单一模型自我提升的瓶颈近年来,大语言模型(LLMs)如GPT4取得了显著进展,但这些模型的性能仍然受限于已有的训练数据。尽管通过生成合成数据进行自我微调成为提升模型的主流方法,但随着微调轮次的增加,性能提升会迅速进入“收益递减”状态,模型的多样性和推理能力难以进一步提高。这种瓶颈限制了语言模型在复杂推理任务中的表现。图片2.方法:多智能体协作微调(MultiagentFinetuning)论文提出了一种全新框架...
2025-01-22 13:04:33 775浏览 0点赞 0回复 0收藏
图片1.科研难题:时间长、成本高、效率低科学发现往往是一个漫长且昂贵的过程,许多优秀的研究创意因资源限制被搁置。现有的自动化工具尝试让大语言模型(LLMs)充当“科研助手”,但却面临成果质量、可行性以及研究细节等问题。为解决这些痛点,AgentLaboratory应运而生——这是一种基于LLM的全自动科研框架,它不仅能高效完成文献综述、实验设计和代码生成,还能输出完整的研究报告。图片2.核心创新:让AI协助而非取代科学家A...
2025-01-13 11:17:54 534浏览 0点赞 0回复 0收藏
1、当ChatGPT爆火后,大语言模型LLM的完整修炼之路图片从ChatGPT横空出世以来,大语言模型(LLM)已经成为了AI领域最炙手可热的研究方向。最近发表的这篇综述性论文为我们全面解析了LLM从训练到推理的完整技术路线图。图片纵观LLM的发展历程,我们见证了一个重要的技术演进过程:从最早的统计语言模型(SLM),到基于神经网络的语言模型(NLM),再到以ELMo为代表的预训练语言模型(PLM)。而真正的突破性进展,则是Transformer架构的...
2025-01-03 13:10:38 572浏览 0点赞 0回复 0收藏
​1、AIAgent的"紧箍咒":一文读懂agent的治理难题与解决方案图片随着AIAgent能力的不断提升,如何确保这些能够自主完成复杂任务的智能代理安全可控,成为了一个亟待解决的问题。一篇最新发表的白皮书深入分析了AIAgent的治理挑战,并提出了一套切实可行的安全治理框架。让我们先看一个生动的例子:假设一个AI助手被要求帮用户购买制作日式芝士蛋糕的材料,但它却错误地订了一张飞往日本的昂贵机票。这个案例揭示了AIAgent治理...
2025-01-03 13:03:04 653浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期的论文:1、为什么Transformer难以学会搜索?一项新研究揭示关键原因图片搜索是许多重要任务(如推理、规划和导航)的核心能力,但最新研究表明,Transformer架构的大模型在搜索任务上表现不佳。那么,这是数据不足、模型参数不够,还是Transformer架构本身的限制?为探究这一问题,研究者采用了一个基础的图连通性问题作为测试平台,深入分析Transfo...
2024-12-25 11:57:11 612浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期的论文:1、让AI自主进化:语言代理的适配机制激活新范式2、OmniDocBench:为PDF文档解析设立多维“标杆”1、让AI自主进化:语言代理的适配机制激活新范式图片人工智能代理是否可以像人类一样,根据任务需求自主调整自己的工作方式?现有语言代理(LanguageAgents,LAs)通常依赖固定的机制或预设顺序来完成任务,但这限制了它们在开放世界场景中的灵...
2024-12-17 12:50:13 750浏览 0点赞 0回复 0收藏
​1、AI玩词谜游戏:编剧式提示让大模型实力大增!图片在人工智能的创新世界里,研究者提出了一个颠覆性的思路:将大语言模型比作"方法派演员"。就像演员需要深入理解角色,大模型也可以通过精心设计的"剧本"和"表演指导"来提升解决复杂问题的能力。这项研究以《纽约时报》的连接词谜游戏为实验场景,展示了这一创新思路的惊人效果。图片研究团队设计了四个关键原则:将提示工程视为编剧和导演、强调表演需要充分准备、将复杂任...
2024-12-12 12:47:15 570浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、亚马逊Nova大模型家族:AI技术的新里程碑2、1000个人的数字分身:AI如何精准模拟人类行为?1、亚马逊Nova大模型家族:AI技术的新里程碑图片亚马逊发布了Nova模型家族,与传统模型不同,Nova不仅仅是又一个AI模型,而是一个全面的、定制化的智能解决方案生态系统。该家族包括Pro、Lite、Micro、Canvas和Reel五个不同定位的模...
2024-12-05 11:44:20 877浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、7大顶尖AI修bug系统大PK,谁才是真正的"代码医生"?2、法语版BERT迎来重大升级!CamemBERT2.0让AI更懂"法式幽默"1、7大顶尖AI修bug系统大PK,谁才是真正的"代码医生"?随着大语言模型(LLM)的崛起,AI自动修复代码bug已经成为现实。但在众多基于LLM的修bug系统中,哪些表现更出色?哪些方案更可靠?一项针对7个顶尖系统的研...
2024-11-27 15:12:44 640浏览 0点赞 0回复 0收藏
1、重磅揭秘:RAG系统的检索机制真的需要那么"完美"吗?在人工智能领域,RAG(检索增强生成)技术正在成为解决大语言模型局限性的关键方案。但是,一个有趣的问题出现了:RAG系统中的检索部分,真的需要追求100%的准确性吗?最近,一项研究给出了令人意外的答案。这项研究首次深入探讨了RAG系统中检索器和阅读器两大组件的关系。研究团队通过大量实验发现,即使降低检索准确度,对最终的问答效果影响也相对较小。换句话说,我们...
2024-11-20 14:59:20 736浏览 0点赞 0回复 0收藏
一、背景最近在看腾讯最新混元大模型的Paper时([2411.02265]HunyuanLarge:AnOpenSourceMoEModelwith52BillionActivatedParametersbyTencent[1]),看到了如下关于计算Budget的公式由于我们的工作中也会经常根据计算资源Budget评估LLM预训练时间,而该公式与我们平常的计算方式不太一致;此外,如下图所示,我们也看到很多文章中将上述公式中的第二项理解为长序列情况下Attention的额外计算开销,而将6ND>9.6ND看成Router引入的...
2024-11-14 15:09:38 3503浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:LoRA或许暗藏玄机数字也会骗人?GPT4都会说9.11>9.9,人工智能的"数学残障"有救了吗?1、LoRA或许暗藏玄机近期,一项重磅研究揭示了AI训练中广受欢迎的LoRA方法可能存在隐患。虽然LoRA能让模型训练时节省90%以上的显存,在目标任务上表现堪比完整微调,但研究人员发现这种"看似完美"的方法背后,或许并不如表面那么美好。研究...
2024-11-14 14:52:12 668浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、LLM的"数数"能力有多弱?一个意想不到的"罪魁祸首"2、专家模型的潜在隐患:用户提示被窃取的背后1、LLM的"数数"能力有多弱?一个意想不到的"罪魁祸首"你相信大型语言模型(LLM)连简单的"数数"都可能做不好吗?近期一篇震惊学术界的论文揭示了这个令人惊讶的事实:即便是号称"无所不能"的AI模型,在面对基础计数任务时也可...
2024-11-01 15:33:01 631浏览 0点赞 0回复 0收藏
1、327个样本打破常规,这个"OpenAIo1复制之旅"有点燃人工智能领域最近又掀起一阵波澜——OpenAI发布了令人瞩目的O1模型。然而,这个模型的具体细节却如同蒙着面纱一般神秘。面对这种情况,一群研究者决定开启了一场别开生面的"O1复制之旅",试图揭开这层面纱。最引人注目的是,研究团队提出了一个创新的"journeylearning(旅程学习)"范式。与传统的"死记硬背"式学习不同,这种方法让模型不仅要学会解决问题,还要学习整个探索...
2024-10-29 11:44:23 878浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、大模型要"断粮"了?最新综述揭示AI数据困境与突围之道2、IBM重磅发布Granite3.0:8B参数秒杀同级别大模型,还能随便商用!3、全球首个39语言多模态大模型开源,告别"英语霸权"1、大模型要"断粮"了?最新综述揭示AI数据困境与突围之道人工智能领域有一个有趣的悖论:模型越来越大,但优质数据的增长速度却远远跟不上。就像一...
2024-10-23 13:34:05 820浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:1、如何让LLM学会"试错"2、LLM竟然学会了"自我反省",它真的有自我意识吗?1、如何让LLM学会"试错"你有没有想过,为什么人工智能经常会犯"愚蠢"的错误?原因可能让你意外:因为我们一直在教它"做一个完美主义者"!最新研究表明,让AI学会"试错",反而能让它变得更聪明。想象一下,如果从小到大,你只被允许看到正确答案,从来...
2024-10-21 12:41:43 1052浏览 0点赞 0回复 0收藏
获得成就
已积累 2.2w 人气
获得 1 个点赞
获得 0 次收藏