探索AGI
LV.2
专注于大模型agent的产品落地方向
声望 181
关注 0
粉丝 2
私信
主帖 18
回帖
嘿,大家好!这里是一个专注于AI智能体的频道!今天跟大家聊一些关于Agent发展的事情。如果说去年是RAG的元年,大家都在naiveRAG中添加各种技巧,使其变成AdavancedRAG。今年应该就是Agent的元年,年初RAG的迭代变成了AgenticRAG的发展方向,上半年Agent、Agentic、workflow等名词的爆火。当然后来到年终,RAG炒作到了RAG2.0、GraphRAG等上面,最近的RAG炒作变成了MemoryRAG,或者RAG已死等等相关的尽管智能体Agent很热门,但它...
3天前 83浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天给大家安利一个开源框架muAgentv2.0:KG引擎驱动的创新Agent框架。由LLM和EKG(EventicKnowledgeGraph,行业知识载体)驱动的全新Agent框架,协同利用MultiAgent、FunctionCall、CodeInterpreter等。通过基于画布的拖放和简单的文本编写,大语言模型可以辅助您在人工指导下执行各种复杂的SOP。它兼容市场上现有的框架,可以实现四大核心差异化技术功能:复杂推理、在线协作、...
6天前 187浏览 0点赞 0回复 0收藏
今天给大家分享JinaAI提出的一个新的技巧。正常在处理大规模数据建索引的时候,一般我们需要先对文档进行分块,建立向量索引。而这个分块大小,设置的都是比较短的,比如512。一方面是早期bert的处理长度的限制,另一个方面是如果文本太长,包含的信息就越多,那么可能比较难用一个向量来表征出来。图片对于前者,如果持续关注向量模型的同学可以发现,无论是开源的BGE系列,还是闭源的API,都在往一个较长的上下文靠齐(比如说...
2024-09-05 12:50:03 375浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天和大家聊聊一个经典的,贝壳提出的RAISEAgent架构。除了架构之外,还包含一个全面的智能体训练框架,从数据选取到场景增强等等。FromLLMtoConversationalAgent:AMemoryEnhancedArchitecturewithFineTuningofLargeLanguageModels本文介绍了RAISE(通过Scratchpad和示例进行reasoning和acting),这是一种高级架构,可增强GPT4等大型语言模型(LLMs)与会话Agent的集成。RAISE是Re...
2024-09-03 11:30:15 140浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!CAMELAI在Mistralcookbook上新增了一个教程。主要内容为:如何利用CAMEL的RAG与Firecrawl相结合,以实现高效的网络爬虫、multiagent角色扮演任务和知识图谱构建。示例是介绍一个使用Mistral模型对2024年巴黎奥运会土耳其射手进行全面研究的示例。图可能看不清,Agentops和output单独截图在下方:2个Agent,一个作为User提出指令,另外一个作为Assistant,执行任务。aiuser>instruc...
2024-08-29 14:43:10 265浏览 0点赞 0回复 0收藏
图神经网络(GNNs,GraphNeuralNetworks)是一类专为图结构数据设计的强大神经网络,擅长捕捉数据之间的复杂联系和关系。相较于传统神经网络,GNN在处理相互关联的数据点时更具优势,比如在社交网络分析、分子结构建模或交通系统优化等领域,GNN能够发挥出卓越的性能。1GNN概述图神经网络是近年来新兴的一类深度学习模型,擅长处理图形数据。传统神经网络处理的是像数字列表这样的简单数据,而图神经网络能处理更复杂的图形数据...
2024-08-27 11:42:14 279浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!最近,深度学习和人工智能领域的大牛们在arXiv上发表了一篇有趣的研究,标题挺长的:《检索增强生成或长上下文大型语言模型?全面研究和混合方法》。今天分享一篇由GoogleDeepMind和密歇根大学的研究人员发布的一个长上下文和RAG混合的方法。RetrievalAugmentedGenerationorLongContextLLMsAComprehensiveStudyandHybridApproach检索增强生成(RAG)一直是大型语言模型(LLMs)高...
2024-08-27 11:30:01 214浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天我要和大家聊聊一些实战相关的内容。大模型在实际的工业场景下最常见的2个场景分别为应用助手(copilot),文档知识库问答(RAG)。事实上后者也逐渐在往更复杂的Agentic方向发展了,今天我们来看以下如何搭建一个可控的RAGAgent。RAGAgent核心是它的“大脑”,一个复杂的确定性图,它能让AI进行复杂的推理。而且,这个系统一般还能防止“幻觉”。确保所有答案都基于提供的数据...
2024-08-22 13:19:50 257浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天来聊聊一篇挺有意思的论文,被langchain官方点名,很多评论推荐的文章!MultiMetaRAG:ImprovingRAGforMultiHopQueriesusingDatabaseFilteringwithLLMExtractedMetadata检索增强生成(RAG)支持从外部知识源检索相关信息,并允许大型语言模型(LLM)回答对以前看不见的文档集合的查询。然而,研究表明,传统的RAG应用程序在回答多跳问题方面表现不佳,这些问题需要检索和推理支...
2024-08-20 09:46:10 363浏览 0点赞 0回复 0收藏
今天我们从另外一个角度对规划能力进行总结,明天开始我们会分享关于Memory相关的内容。当我们谈论LLM支撑的Agent时,规划模块(PlanningModule)是它们智能行为的核心。想象一下,如果你要完成一项复杂的任务,比如组织一场大型活动,你可能会把它分解成一系列小任务,然后逐一解决。智能体的规划模块也是这么干的!规划模块的设计理念是模拟人类的规划能力,它能让智能体更合理、更强大、更可靠地行动。首先,我们得决定智能...
2024-08-09 16:34:46 304浏览 0点赞 0回复 0收藏
如何让LLM在规划能力上变得更聪明,想象一下,如果我们的AI助手能够记住过去的经历,并且在需要的时候能够回忆起来,那会是多么方便的事情啊!首先,我们要明白,对于AI来说,记忆是提升规划能力的关键。目前,有两种主要的方法可以通过记忆来增强LLMAgents的规划能力:基于RAG的记忆和参数记忆。RAG,也就是检索增强生成,它能够用检索到的信息来增强LLM的最新知识。想象一下,如果AI能够把过去的经验存储在记忆中,并在需要的...
2024-08-07 14:37:38 301浏览 0点赞 0回复 0收藏
在人工智能的世界里,我们经常面临一个挑战:如何让机器像人类一样,面对复杂任务时,能够生成多种可能的解决方案,并从中选择最优的计划呢?这正是“多计划选择”(MultiPlanSelection)要解决的问题。今天,咱们就来聊聊这个有趣的话题。首先,想象一下,如果我们的智能Agent面对一个复杂的问题,它可能会生成多个计划。但是,这些计划可能各不相同,甚至有些可能根本不可行。这时候,多计划选择就派上用场了。它包括两个主要...
2024-08-05 01:20:13 332浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天我们来聊聊一个超酷的东西——BabyAGIagentwithTools。这货是一个能跟数据库打交道的智能体!这是这个系列的第3篇。首先,咱们得搭建一个向量存储和嵌入模型。这里我们用的是开源的Chroma和OpenAI的嵌入模型。别急,这就给你们上代码。fromlangchain.embeddings.openaiimportOpenAIEmbeddingsfromlangchain.vectorstoresimportChromaembeddingOpenAIEmbeddings()persistdirect...
2024-07-30 00:51:18 268浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天我要跟大家聊聊AI界的大新闻,是关于AIagents的未来。最近,LangChain的CEOHarrisonChase在红杉资本的一个活动上,分享了他对Agent未来发展的一些深刻见解。视频地址:https:www.youtube.comwatchvpBBe1pk8hf4首先,简单科普一下LangChain。它是一个超火的编码框架,专门用来整合各种AI工具,让开发者们能轻松构建复杂的应用程序。AIAgent就是这个框架潜力的典型代表。简单来...
2024-07-23 11:00:31 326浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天我们聊聊如何在LangGraph中实现“人机交互”(HumanintheLoop,简称HIL)的机制。这可是让智能系统更懂你、更贴心的秘密武器哦!想象一下,你的智能助手在执行任务时突然停下来,问你:“嘿,我接下来要用这个工具,你觉得怎么样?”这就是HIL的核心——在关键时刻让人类介入,确保每一步都符合你的期望。具体怎么做呢?我们通过在LangGraph中设置断点来实现。这些断点会在执...
2024-07-19 10:25:23 771浏览 1点赞 1回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!首先,让我们来聊聊LLM。这些模型通过在海量数据集上预训练,已经展现出了惊人的能力,无论是理解还是生成自然语言,它们都能做得很好。但问题来了,这些模型的规模和训练成本都很高,这让它们在实际应用中有点不切实际。这时候,MoA登场了!MoA通过利用多个LLM的集体优势,提供了一个创新的解决方案。想象一下,如果每个智能体都能贡献自己的一份力量,那么最终的输出结果将会多...
2024-07-15 09:23:35 343浏览 0点赞 0回复 0收藏
大型预训练语言模型的规模不断扩大,在许多自然语言处理(NLP)基准测试中取得了最先进的结果。自GPT和BERT开发以来,标准做法一直是在下游任务上微调模型,这涉及调整网络中的每个权重(即模型调优)。但是,随着模型变得越来越大,为每个下游任务存储和提供模型的优化副本变得不切实际。一个有吸引力的替代方案是在所有下游任务中共享一个冻结的预训练语言模型,其中所有权重都是固定的。冻结模型可以通过“上下文”学习来执...
2024-07-11 10:11:31 476浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天来简单聊聊Multiagent系统,明天会分享一个简单的多智能体系统实战~。MultiAgent系统到底是啥?想象一下:如果有一个团队,每个成员都有自己的角色和任务,但又能互相协作,共同完成一个目标,那会是怎样的体验?MultiAgent系统就是这样一个概念。在AI的世界里,每个智能体都有自己的个性和角色,它们通过语言模型(LLM)来驱动,相互之间还能交流协作。那MultiAgent系统怎么...
2024-07-10 08:57:55 1071浏览 0点赞 0回复 0收藏
获得成就
已积累 1397 人气
获得 1 个点赞
获得 0 次收藏