你有没有想过,是什么让AI模型变得如此强大?为什么有些AI能够写诗作画,有些却只能做简单的问答?这其中,ScalingLaw(规模法则)扮演着至关重要的角色,它就像AI模型的核心,揭示了模型性能提升的奥秘。ScalingLaw是什么?简单来说,ScalingLaw指的是当我们增加模型的规模(例如模型包含的参数越多,模型就越大)、训练数据量和计算资源时,模型的性能就会随之提升。(感觉这是符合直觉的,但ScalingLaw最核心的在于量化给出...
原文:RetrievalAugmentedGeneration(RAG)andBeyond:AComprehensiveSurveyonHowtoMakeyourLLMsuseExternalDataMoreWisely每当我向非技术背景的朋友解释大语言模型时,我常常用"博学但缺乏实践经验的应届生"作比喻。这些模型确实掌握了海量的知识,但在特定领域的实际应用中,常常会暴露出"经验不足"的问题。就像一位刚毕业的法学生,虽然能流畅地背诵法条,但面对真实的案件时可能会觉得无从下手。微软亚洲研究院的研究团队近期...
2025-01-14 13:01:27 282浏览 0点赞 0回复 0收藏
语音转文本(STT),也称为自动语音识别(ASR),是一种将口语转录成书面文本的AI技术,现在越来越多的公司利用STT在现有应用程序中嵌入新的音频功能,并为一系列用例创建智能助手。语音转文本模型简史首先,一些背景信息。语音转文本是AI中自然语言处理(NLP)分支的一部分。它的目标是使机器能够理解人类语音并将其转录成书面格式。你可能会想,转录语音有多难。简短的回答是:非常难。与可以以相对简单的方式放入矩阵中的图...
2025-01-06 11:19:45 315浏览 0点赞 0回复 0收藏
本文旨在解释多模态大语言模型的工作原理。此外,还将回顾并总结最近几周发布的十几篇多模态研究论文和模型(包括Llama3.2)的内容,以比较它们的不同实现方式。一、多模态大语言模型是什么?多模态大语言模型(MultimodalLargeLanguageModels,简称MultimodalLLMs)是一种能够理解和生成多种类型数据的模型,包括文本、图片、音频和视频等。这些模型可以跨越不同的数据形式,进行信息的交互与生成。例如,传统语言模型只能处理...
2024-12-26 13:18:25 1598浏览 0点赞 0回复 0收藏
“这段代码明明是对的啊,为什么ChatGPT还给出了错误的解释?我都把相关文档放进去了!”“用户问的是2024年的新闻,我也给了最新的新闻报道作为上下文,但模型回答的还是2022年的旧闻...”相信做RAG应用开发的同学都遇到过类似的困扰。明明提供了相关的上下文,为什么大模型还是会产生幻觉...是大模型没有好好利用上下文,还是上下文本身就不足以回答问题?最近Google、UCSD等机构的研究者提出了一个新的视角来看待这个问题。...
2024-12-18 10:42:28 465浏览 0点赞 0回复 0收藏
你是否经历过这样的场景:向ChatGPT询问一道复杂的数学题,它给出了一个看似合理但完全错误的答案;或者明明上下文里有现成的答案,它却绕了一大圈给出了不着边际的回复。这就是大语言模型著名的"幻觉"问题,就像一个博学但不够严谨的学者,时常会脑补一些并不存在的信息。为了解决这个问题,研究人员提出了检索增强生成(RAG)技术。简单来说,就是在模型回答问题之前,先让它查阅相关的资料。这就像是给学者配备了一个图书馆,...
2024-12-13 14:08:12 462浏览 0点赞 0回复 0收藏
无论是通过微调提高模型准确性,还是增强基于检索的生成(RAG)系统的上下文相关性,对于任何希望构建鲁棒的大语言模型(LLM)应用的人来说,评估LLM输出都是至关重要的。但对许多人而言,LLM评估仍然是一项具有挑战性的任务。了解如何为你的用例开发和选择合适的LLM评估指标集,对于构建一个鲁棒的LLM评估系统至关重要。本文将教你关于LLM评估指标需要了解的一切,包含代码示例。我们将深入探讨:什么是LLM评估指标,如何使用...
2024-12-06 07:22:21 2598浏览 0点赞 0回复 0收藏
在AI领域,我们经常听到这样的说法:"这个大模型太强了,连bug都能自动修复!"但你有没有想过,大模型修复bug的能力是真的掌握了bug修复的规律,还是简单地"记住"了训练数据中的bug修复案例呢?让我们打个比方。想象你是一个编程老师,你发现一个学生在期末考试中完美地解决了一个复杂的bug。不仅代码逻辑正确,连代码风格、变量命名、甚至注释都跟课本上的例子一模一样。这时候,你会觉得这个学生真的理解了问题的本质,还是在...
2024-11-28 15:35:43 835浏览 0点赞 0回复 0收藏
原文:QueryOptimizationforParametricKnowledgeRefinementinRetrievalAugmentedLargeLanguageModels一、研究背景与挑战在自然语言处理领域,大语言模型(LLMs)取得了显著进展。这些模型通过在海量语料上进行训练,展现出理解人类文本和生成高质量响应的卓越能力。然而,大语言模型存在一个重要的局限性它们难以准确捕捉信息的动态更新。因为这些模型是在静态语料库上预训练的,当面对最新或不常见的信息时,它们往往会生成过时或不准...
2024-11-21 14:10:16 761浏览 0点赞 0回复 0收藏
今天,我们将进入一个更加复杂和动态的领域:提示工程中的代理技术。这种技术允许我们创建能够自主决策、执行复杂任务序列,甚至与人类和其他系统交互的AI系统。让我们一起探索如何设计和实现这些智能代理,以及它们如何改变我们与AI交互的方式。1.代理技术在AI中的重要性在深入技术细节之前,让我们先理解为什么代理技术在现代AI系统中如此重要:任务复杂性:随着AI应用场景的复杂化,单一的静态提示已经无法满足需求。代理可...
2024-11-14 16:08:01 450浏览 0点赞 0回复 0收藏
今天,我们将把视野扩展到更广阔的领域:多语言提示技术。在这个日益全球化的世界中,能够处理和理解多种语言的AI系统变得越来越重要。让我们一起探索如何利用提示工程来克服语言障碍,创建真正的多语言AI应用。1.多语言提示技术的重要性在开始深入技术细节之前,让我们先理解为什么多语言提示技术如此重要:全球化需求:随着企业和组织的全球化发展,需要能够理解和生成多种语言的AI系统。知识共享:多语言AI可以帮助跨语言知...
2024-11-04 11:59:38 1019浏览 0点赞 0回复 0收藏
1.引言部分今天要给大家分享一篇很有意思的论文。这篇论文主要解决的是什么问题呢?就是如何让大语言模型在专业领域,比如医疗、科学领域表现得更好。你们有没有想过,虽然现在的ChatGPT、Claude这些大模型很厉害,但在专业领域它们的表现还是不够好,对吧?比如说,当我们问它一个关于"支气管扩张"的专业问题时,它可能就答不太准确了。这是为什么呢?主要原因是这样的这些专业领域有很多特殊的知识和术语,普通模型可能理解得...
2024-10-30 14:52:04 1328浏览 0点赞 0回复 0收藏
最近在研究大模型训练和微调相关的内容,听领导说的最多的一句话“那不是有数据有算力就能搞定的吗”,于是调研了下qwen系列的训练细节。再整理过程中,再次感慨,怪不得有了数据和算力,也不是每家公司都是OpenAI。Qwen2.5MathQWEN2.5MATHTECHNICALREPORT:TOWARDMATHEMATICALEXPERTMODELVIASELFIMPROVEMENT1.预训练阶段Qwen2.5Math的预训练阶段是在Qwen2Math的基础上进行改进的。这个阶段的主要目标是构建一个高质量、数学内...
2024-10-25 13:24:40 880浏览 0点赞 0回复 0收藏
蓦然回首,从18年开始接触NLP(自然语言处理)开始,已经7年有余。机缘巧合的情形下,让自己和NLP有了第一次邂逅。从未接触NLP相关研究的自己,凭着年轻的热血投递搜狗的实习,那时候“不计后果”,不去考虑是否能行,直接“打火车”从天津到了北京,迎来人生的第一次(实习)面试。犹记得面试官的一个问题,“武汉市长江大桥”有几种分词方式,这个NLP中最典型的问题打开了我的NLP之路,实习的面试不难,当天面完当天又急匆匆...
2024-10-22 12:10:35 687浏览 0点赞 0回复 0收藏
第一章:为什么要给大模型喂"额外营养"?想象一下,你有一个超级智能的AI助手,它几乎无所不知。但当你问它"今天的股市行情如何?"或者"最新的新冠病毒变种有哪些症状?",它却一脸茫然。这就是大语言模型(LLM)的现状知识广博但不够新鲜。这就是为什么我们需要给LLM喂点"额外营养",也就是外部数据。这个过程,专业点说叫"检索增强生成"(RAG)。首先,让我们聊聊为什么要这么做:1.1让AI变得更"专业"LLM虽然懂得多,但在专业...
2024-10-15 14:42:03 1079浏览 0点赞 0回复 0收藏
一、引言持续学习是智能的关键方面。它指的是从非平稳数据流中增量学习的能力,对于在非平稳世界中运作的自然或人工智能体来说是一项重要技能。人类是优秀的持续学习者,能够在不损害先前学习技能的情况下增量学习新技能,并能够将新信息与先前获得的知识整合和对比。然而,深度神经网络虽然在其他方面可以与人类智能相媲美,但几乎完全缺乏这种持续学习的能力。最引人注目的是,当这些网络被训练学习新事物时,它们倾向于"灾难...
2024-10-11 16:27:04 2502浏览 0点赞 0回复 0收藏
1.研究背景与动机近年来,大语言模型(LargeLanguageModels,LLMs)在人工智能领域取得了巨大的进展。为了评估这些模型的能力,研究人员开发了许多评估基准。然而,随着这些基准的广泛使用,人们对其适当性和公平性产生了越来越多的担忧。本研究的主要动机包括:评估基准的重要性:评估基准是衡量LLMs能力的关键工具,对于理解模型进展至关重要。数据泄露问题:在准备预训练数据时,可能无意中包含了未来评估数据集的相关内容,...
2024-10-09 14:16:58 1052浏览 0点赞 0回复 0收藏
看到Meta的发布会,感觉智能又近了一步,从视觉语言模型的革新到轻量级模型在边缘设备上的应用,Meta正在将AI的触角延伸到我们生活的每个角落。想象一下,在不久的将来,我们的手机可能会成为一个真正智能的个人助理,能够理解我们的视觉世界,回答复杂的问题,甚至帮助我们做出更明智的决策。同时,Meta坚持开源的策略正在激发全球开发者的创造力。这种开放创新的模式可能会加速AI技术的发展,带来我们现在还无法想象的应用和...
2024-09-27 14:15:56 993浏览 0点赞 0回复 0收藏
今天我要跟大家分享一篇很有意思的论文,题目是《AgentWorkflowMemory》,也就是"Agent工作流记忆"。这篇论文提出了一种新方法,让AI助手(我们称之为Agent)能更好地完成复杂的网页任务。背景:AI助手的挑战首先,我们来聊聊这个研究的背景。现在的AI技术已经非常强大了,特别是像GPT这样的大语言模型(LLM),它们可以进行对话、回答问题,甚至可以帮我们完成一些简单的任务。但是,当面对复杂的、需要多个步骤才能完成的任务时,AI助手还是...
2024-09-24 14:45:13 971浏览 0点赞 0回复 0收藏
在人工智能领域,具身AI(EmbodiedAI)一直是一个备受关注的研究方向。它旨在赋予AI代理与物理世界交互的能力,让AI不仅仅停留在虚拟的数字世界中,而是能够在真实环境中感知、规划和行动。近年来,随着大语言模型(LLM)的蓬勃发展,如何将LLM的强大语言理解和生成能力与具身AI任务结合起来,成为了一个热门的研究课题。在这个背景下,来自中国科学技术大学等机构的研究人员提出了一种新颖的方法——渐进式检索增强生成(ProgressiveRetrie...
2024-09-20 11:45:55 1635浏览 0点赞 0回复 0收藏