ermulong
LV.4
这个用户很懒,还没有个人简介
声望 461
关注 0
粉丝 0
私信
主帖 58
回帖
今天,我们正式发布了LangMemSDK——一个帮助您的代理通过长期记忆不断学习和改进的工具库。这个SDK提供了一些工具,能够从对话中提取信息、通过更新提示词优化代理行为,并保持关于行为、事实和事件的长期记忆。您可以将LangMem的核心API与任何存储系统配合使用,也能在任何代理框架中集成。它还与LangGraph的长期记忆层原生兼容。我们还推出了一项托管服务,提供额外的长期记忆功能,并且免费提供——如果您希望在生产环境中...
1天前 114浏览 0点赞 0回复 0收藏
智能体崛起人工智能界为能够自主行动的系统奠定了基础,通过迭代提示大型语言模型,在各种应用中实现了性能的大幅提升。发生了什么“智能体”成为了人工智能领域的新热词。研究人员、工具供应商和模型开发者纷纷为大型语言模型(LLM)赋予了决策和行动能力,以实现特定目标。这些进展预示着来年及未来智能体应用将迎来爆发式增长。幕后推手多种工具的出现,助力开发者构建智能体工作流程。2023年10月├──CrewAI发布了开源Python...
1天前 157浏览 0点赞 0回复 0收藏
一、现象级事件:为什么DeepSeek能踏平AI提效的最后一公里?在过去的十年,AI工具为人类工作效率带来了显著的提升,然而普通用户在使用这些工具时,仍然面临许多挑战,尤其是与提示词工程(PromptEngineering)高度相关的问题。ChatGPT这样的生成式AI工具对提示词工程的高度依赖。然而,大多数普通人并没有接受过足够的训练来设计高效提示词。需求表述焦虑:普通人难以精准拆解复杂问题为AI可执行指令。复杂的问题需要清晰的分...
8天前 288浏览 0点赞 0回复 0收藏
随着人工智能(AI)和自动化技术的快速发展,我们进入了一个自动化知识时代。在这个时代,知识管理工具日益依赖AI技术来帮助用户整理、管理和处理大量的信息。然而,单纯依赖这些工具并不能完全解决知识管理中的所有问题。人类的洞察力、创造力和批判性思维在这个过程中依然至关重要。一、背景与挑战在知识管理领域,AI的应用越来越广泛。传统的RAG模型结合了检索和生成技术,通过检索大量数据来为生成提供上下文,从而实现更加...
2025-02-05 18:02:23 338浏览 0点赞 0回复 0收藏
如今,很多AI应用程序都采用了常见的聊天模式("chat"UX)。尽管这种模式实现起来比较简单,但它会带来额外的交互成本,限制了人类通过AI扩展自身能力的潜力,也未能充分利用大型语言模型(LLMs)的优势。在过去的六个月中,我们在LangChain一直在探索一种新方式:能够响应环境信号的代理(AmbientAgents)。这些代理只会在发现重要机会或需要用户反馈时才与用户互动,避免了频繁打断用户。此外,用户不再需要进入新的聊天界面...
2025-01-21 14:04:15 373浏览 0点赞 0回复 0收藏
本文将介绍如何利用AIAgent技术,帮助工程师在交易系统的研发过程中提高效率,具体从问题排查、测试数据生成、经验共享等多个角度分析,并通过案例展示其应用。一、交易系统研发中的挑战交易系统可以比作一个复杂的“千层饼”,包含大量的链路、服务和数据。任何一个环节出现问题,都会对系统的稳定性和效率产生影响。对于工程师而言,在复杂的交易系统中进行问题排查、测试和优化,如同在迷宫中寻找出口。以下是工程师在日常研...
2025-01-13 10:02:39 575浏览 0点赞 0回复 0收藏
今天,本文将探讨如何利用AI工具,尤其是基于“六顶思考帽”理论的智能体,来辅助和促进人类的深度思考。通过构建一个“六顶思考帽”AIAgent,我们将展示AI如何成为深度思考的得力助手,而不是思考的替代者。六顶思考帽:结构化深度思考的工具“六顶思考帽”是由爱德华·德博诺(EdwarddeBono)提出的一种创新思维方法,通过分离不同的思考模式,帮助我们全面、系统地看待问题。每顶帽子代表一种特定的思维模式,戴上不同的帽子...
2025-01-02 13:24:31 1098浏览 0点赞 0回复 0收藏
2024年即将结束,回顾这一年与大语言模型(LLMs)的共同进步,我们见证了许多令人振奋的变化。每个月,约有30,000名新用户加入了LangSmith,这让我们得以更清楚地观察到人工智能领域的变革。就像去年我们所做的那样,我们在此分享一些有趣的统计数据,揭示了产品使用模式的变化,以及人工智能生态系统的演变。特别是随着开发者利用LangSmith来跟踪、评估并迭代应用,观察到一些显著的趋势,包括开源模型的使用增长,以及从以检...
2024-12-24 13:40:30 759浏览 0点赞 0回复 0收藏
你好啊,我是小智,今天我将详细解析Hammer模型如何通过函数名和参数名的修改,数倍提升模型在FunctionCalling任务中的准确性。改名提升模型性能,看似玄学也有依据简洁命名的模糊性在大多数编程语言中,函数名和参数名都是对功能的抽象表达。通常情况下,简洁的命名规则便于代码阅读与理解,但当这些简洁的命名被直接作为模型输入时,可能会导致一定程度的模糊性。例如,假设我们有一个名为getdata的函数,该函数可能用于从数...
2024-12-16 10:13:39 586浏览 0点赞 0回复 0收藏
一、什么是Prompt调优?Prompt调优,顾名思义,是通过调整输入给模型的提示词(Prompt),来引导模型生成更为准确、连贯或符合预期的输出。随着大语言模型如GPT系列的出现,Prompt的设计成为了提高模型效果的重要工具。在面试中,解释Prompt调优的第一步是确保面试官理解你为什么要调优,即你遇到了什么问题。二、案例实战从问题出发在构建AI系统时,最初的版本往往会暴露出模型的局限性。以下是阿里云团队发布的客服系统回答质...
2024-12-12 10:32:44 891浏览 0点赞 0回复 0收藏
本文将深入探讨如何为functioncalling任务生成高质量的微调数据,并通过具体例子和实战步骤带领读者逐步理解这一技术核心。大型语言模型在函数调用中的关键能力在functioncalling微调过程中,模型需要掌握以下关键能力:准确的API选择:识别并选择最合适的API执行用户的查询。这要求模型具备强大的理解能力,能够分析用户的自然语言意图,并从多个可选的API中匹配到最相关的一个或多个。精确的参数映射:将用户的自然语言输入映...
2024-12-04 12:07:20 633浏览 0点赞 0回复 0收藏
本篇文章将循序渐进地介绍智能体记忆的概念、类型、更新方式以及其实际应用。通过具体的例子,帮助读者深入了解智能体记忆系统的设计与实现,尤其是如何在实际应用中为智能体添加记忆功能。记忆与存储的区别在日常的编程任务中,存储和记忆经常被混淆。为了更好地理解智能体记忆的工作原理,我们首先需要区分“存储”和“记忆”的概念。存储:通常指数据的保存与管理。程序通过文件系统、数据库或内存等手段来存储数据。存储是...
2024-11-26 15:05:35 1188浏览 0点赞 0回复 0收藏
今天我将带领大家,以最为基础的CRUD入手来看看向量数据库应该如何使用。考虑到目前市面上的向量数据库众多,每个数据库的操作方式也无统一标准。「本文将基于LangChain提供的VectorStore类中的统一操作方法,以chroma向量数据库作为示例进行演示。」向量数据库新增LangChain的VectorStore类是一个通用的向量数据库的接口,它可以对接不同的底层向量数据库,如chroma、faiss、annoy等,实现统一的操作方法和API。VectorStore类...
2024-11-19 14:39:27 893浏览 0点赞 0回复 0收藏
客服助手机器人能够帮助团队更高效地处理日常咨询,但要打造一个能够稳定应对各种任务且不会让用户感到烦恼的机器人并非易事。完成本教程后,你不仅会拥有一个功能完备的机器人,还将深入理解LangGraph的核心理念和架构设计。这些知识将帮助你在其他人工智能项目中运用相似的设计模式。由于内容较多,本文将由浅入深,分四个阶段进行讲解,每个阶段都将打造出一个具备以上描述所有能力的机器人。但受限于LLM的能力,初期阶段的...
2024-11-13 14:40:25 1191浏览 0点赞 0回复 0收藏
你是否曾经想过,当你在使用ChatGPT这样的AI模型时,你输入的文字是如何影响模型的输出的?你是否知道,有一些特殊的文字,可以像咒语一样,引导模型发挥出最大的能力,甚至让它做出你想不到的事情?你是否想了解,如何与模型有效地沟通,让它成为你的得力助手,而不是你的对手?如果你对这些问题感兴趣,那么本文就是为你准备的。本文将从浅到深,揭示ChatGPT提示词背后的本质,让你了解AI提示词的实用技巧和原则,以及提示词...
2024-11-06 14:23:56 974浏览 0点赞 0回复 0收藏
RAG面临的挑战和问题在当前AI的落地应用中,最火热的应用首推检索增强生成(RetrievalAugmentedGeneration)。它的目的是根据用户的问题,从一个大规模的文档集合中检索出相关的文档,并从中抽取出最合适的答案。RAG的应用场景非常广泛,例如智能客服、知识图谱构建、对话系统等。然而,幻觉是笼罩在RAG应用上,挥之不去的乌云。一般来说RAG会经历,原始数据向量化>语义搜索数据召回>大模型整合输出。RAG因此也面临着一些挑战和...
2024-10-31 14:32:31 1118浏览 0点赞 0回复 0收藏
什么是Transformer?Transformer是一种新颖的神经网络架构,它在2017年由Google的研究人员提出,用于解决机器翻译等自然语言处理的任务。Transformer的特点是,它完全摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN),而是采用了一种称为自注意力机制(SelfAttention)的方法,来捕捉文本中的长距离依赖关系,提高了模型的效率和准确性。今天本文将围绕自注意力机制,介绍Transformer的三个主要概念,位置编码、注意力机...
2024-10-25 14:29:49 633浏览 0点赞 0回复 0收藏
随着AI应用工程的飞速发展,我们不难发现为大语言模型(LLMs)提供额外工具能大大增强其功能。举例来说,GPT3.5版本通过集成Bing搜索和Python解释器实现了能力的跃迁。GPTs则直接将api调用作为工具进行了集成,LLM会决定是直接作出回应,还是先调用它提供的工具。这些工具不仅限于获取额外信息,它们还能发挥其他功能,比如帮用户订餐。尽管OpenAI已经用它的专门模型让我们享受了工具使用的便捷,大多数其他LLM在函数调用和工具...
2024-10-23 10:55:40 853浏览 0点赞 0回复 0收藏
图检索增强生成(GraphRAG)正逐渐流行起来,成为传统向量搜索方法的有力补充。这种方法利用图数据库的结构化特性,将数据以节点和关系的形式组织起来,从而增强检索信息的深度和上下文关联性。示例知识图谱图在表示和存储多样化且相互关联的信息方面具有天然优势,能够轻松捕捉不同数据类型间的复杂关系和属性。而向量数据库在处理这类结构化信息时则显得力不从心,它们更擅长通过高维向量处理非结构化数据。在RAG应用中,结合...
2024-10-18 14:53:25 1102浏览 0点赞 0回复 0收藏
在AI的发展中,大规模语言模型已经取得了令人瞩目的成果,然而,随之而来的是模型质量和不确定性的问题。如何衡量和改进模型的质量,一直是我们面临的一个挑战。为了解决这些问题,我们将在这篇文章中,介绍LangChain框架和TruLens工具,它们将帮助我们评估模型的质量,提高模型质量,并能够用量化的方法对抗不确定。什么是TruLensTruLens是面向神经网络应用的质量评估工具,它可以帮助你使用反馈函数来客观地评估你的基于LLM(...
2024-10-16 15:56:13 915浏览 0点赞 0回复 0收藏
获得成就
已积累 1.5w 人气
获得 0 个点赞
获得 0 次收藏