水晶花雨_32
LV.3
这个用户很懒,还没有个人简介
声望 237
关注 0
粉丝 0
私信
主帖 28
回帖
在人工智能领域,每一次重大突破都能引发全球科技爱好者的热烈讨论。Anthropic公司发布的全新模型——Claude3.7Sonnet,无疑再次点燃了AI社区的热情。作为全球首个混合推理模型,Claude3.7Sonnet不仅在编码能力上实现了质的飞跃,还通过其独特的“标准和扩展思考模式”重新定义了AI的推理方式。一个模型,两种思考方式Claude3.7Sonnet的最大亮点在于其“一个模型,两种思考方式”的设计理念。用户可以根据需求选择“标准模式”...
13h前 196浏览 0点赞 0回复 0收藏
近期,公司在AI相关项目,尤其是问答系统领域,对回答的准确率和表述质量提出了更高的要求。用户提出的问题不仅限于基础性问题,还可能涉及多样化、复杂化的场景。也就在上周五快下班的时候,项目经理向我反馈,之前的项目团队支持的某客户在使用问答系统时,除了查询私有知识库中的信息外,还会提出以下几类问题:可直接由大语言模型(LLM)回答的问题:例如通用知识或常识性问题。非知识库相关的口头表达:如“谢谢”、“再见...
7天前 380浏览 0点赞 0回复 0收藏
最近公司处理LLM项目的同事咨询了我一个问题:明明文档中多次提到同一个专有名词,RAG却总是漏掉关键信息。排查后发现,问题出在传统的分块方法上——那些相隔几页却密切相关的句子,被无情地拆散了。我给了一些通用的建议,比如使用混合检索代替单一的语义检索,基于chunk生成QA对等等。接着他又提出了一个问题,有没有通过分块技术能减少这类问题的发生?我说你也可以试试最近新提出的一种分块策略:AgenticChunking.为什么分...
7天前 589浏览 0点赞 0回复 0收藏
在2月18日,马斯克旗下的xAI公司推出新一代大语言模型Grok3。马斯克在发布会上自信满满地表示:“Grok3比Grok2强大一个数量级。”这话听起来有点夸张,但看看Grok3的表现,还真不是吹牛。根据xAI工程师的说法,Grok3的训练量是Grok2的10倍,推理能力更是直接碾压了包括ChatGPT和DeepSeek在内的其他AI模型。马斯克甚至放话:“Grok3是地球上最聪明的人工智能。”Grok3到底有多强?咱们先来看一组数据。在数学能力测试(AIME'24)...
2025-02-20 14:33:23 253浏览 0点赞 0回复 0收藏
刷朋友圈,看到一个朋友发了条说说:“感谢Deepseek提升个人能量的建议!这么多年总算年会中了一次奖了哈哈哈!!!”看到这条朋友圈,我的第一反应是:Deepseek这么玄学呢?作为一个技术博主,我向来对AI的能力持开放态度,但算命?这似乎有点超出我的认知范围了。于是,我决定亲自试试,用我一个好兄弟的八字来“考验”一下Deepseek。我的“算命”实验第一步:试探Deepseek我先问了Deepseek一个简单的问题:“听说你会算命?...
2025-02-20 14:30:46 1504浏览 0点赞 0回复 0收藏
摘要尽管检索增强生成(RAG)系统通过外部检索扩展了大语言模型(LLM)的能力,并取得了一定进展,但这些系统在应对复杂多变的工业应用需求时仍显不足。特别是在提取深度领域知识和进行逻辑推理方面,仅依赖检索的方式存在明显短板。为此,微软推出了PIKERAG(sPecIalizedKnowledgEandRationaleAugmentationGeneration),旨在通过提取、理解和应用专业知识,构建连贯的推理链条,逐步引导LLM生成更精准的响应。github对应的地...
2025-02-20 14:28:35 985浏览 0点赞 0回复 0收藏
我们最近在一个项目中遇到了一个问题。项目的场景是这样的:用户将他们的PDF文档存储在磁盘的某个特定目录中,然后有一个定时任务来扫描此目录并从中的PDF文档构建知识库。一开始,我们采用"增量更新"策略。在扫描目录中的文档时,我们会对每个文档进行哈希运算以生成其指纹,并检查该指纹是否已存在于数据库中。如果指纹不存在,就表示这是一个新文件,我们会对新文件的document做embedding,然后将其加入到知识库中。然而,这...
2024-12-03 08:51:41 864浏览 0点赞 0回复 0收藏
SelfRAG出现的背景经典的RAG模型通过提供与问题相关的上下文信息来支持LLM在回答知识密集型问题。然而,这种方法存在两个主要问题:过度检索:RAG系统并不针对用户意图进行精细的判断,而是对每次输入都执行topk的知识检索,可能导致引入不必要或偏离主题的信息,从而影响输出的质量。例如,当用户仅是打招呼时(如"hello"),理想的做法是直接利用LLM的能力来回答,而不需要查询知识库输出一致性问题:无法百分百确定回答的内...
2024-12-03 08:48:03 992浏览 0点赞 0回复 0收藏
在之前的文章中,我们探讨了混合检索的概念以及其后续的重新排序(rerank)和重组(reorder)操作。今天,我们将从实践角度解析如何执行混合检索。下图是混合检索的流程:BM25众所周知,混合检索主要通过关键词匹配来确定可能的答案,接着结合语义匹配以进一步提升答案的精确度。BM25就是其中一种常见的关键词搜索技术。BM25就像一个智能的匹配工具,在我们使用搜索系统时,它能帮助我们找到最相关的信息。BM25如何做到这一点呢...
2024-12-03 08:44:25 1680浏览 0点赞 0回复 0收藏
1、什么是LazyGraphRAGGraphRAG[1]旨在通过利用非结构化文本中的隐式关系来扩展AI系统可以在私有数据集上回答的问题类别,相对于传统矢量RAG(或“语义搜索”)的一个关键优势是它能够回答解决整个数据集的全局查询,例如“数据中的主要主题是什么?",或者“X最重要的含义是什么"。相反,向量RAG擅长于本地查询,其中答案类似于查询并且可以在特定文本区域内找到,如通常针对“who”、“what”、“when”和“where”问题的情况...
2024-12-02 15:34:50 2088浏览 0点赞 0回复 0收藏
今天来分享一篇深度好文:《GoldenRetriever:HighFidelityAgenticRetrievalAugmentedGenerationforIndustrialKnowledgeBase》,我们知道企业落地RAG系统有以下常见痛点:技术公司维护着大量的专有文档,如培训材料、设计文档和研究成果。工程师,尤其是新员工,需要快速查询这些文档或吸收其中的新知识。这些领域特定的文档通常包含许多技术社区特有的缩写和术语,使得导航变得复杂。而这篇文章提出了一个概念:GoldenRetriever...
2024-11-26 10:25:33 877浏览 0点赞 0回复 0收藏
我阅读了一篇有关"AdvancedRAG"的论文,在阅读这篇论文后,我发现其中的一些概念和技术具有很高的实用价值。接下来,我将结合我在公司的实践经验,分享以下RAG系统的三个阶段的优化:预检索和数据索引技术检索技术检索后处理预检索和数据索引技术使⽤LLM增加信息密度如果来⾃异构数据源(例如PDF、抓取的⽹络数据、⾳频记录)的⾮结构化数据没有经过特定处理,信息密度比较低下,包含不相关的信息和或噪⾳,或者有很多信息重复...
2024-11-26 10:20:40 935浏览 0点赞 0回复 0收藏
作为一名资深博主和GraphRAG的贡献者之一,我最近深入探索了GraphRAG的源代码并提交了一些pr。在这个过程中,我发现prompt在知识图谱的生成以及最终问答效果方面起着决定性的影响。因此,我决定专门花时间来整理关于prompt提示的内容。这篇文章的主要参考是AI大师吴恩达的prompt提示工程总结。我们将会讨论如何正确使用ChatGPT,它所具有的常规能力等内容。值得注意的是,虽然任何人都可以编写prompt,但要编写出高效的prompt,...
2024-11-26 09:34:20 1380浏览 0点赞 0回复 0收藏
这周boss提了一个需求,希望能够直观感受一下GraphRAG的问答效果,希望我让团队的前端同事做一些基础的前端工作,包括PDF文件上传、流式输出、配置Global或Local查询方式等基本功能。作为团队负责人,并非boss提的所有需求都不假思索直接安排人开发,要分析本质需求是什么?这个需求的本质是只希望有一个UI界面能够试用一下GraphRAG。如果我让组里的前端开发这样的功能,大约需要两到三天的时间,而这些代码很可能在以后会被废弃...
2024-11-25 10:06:03 2162浏览 0点赞 0回复 0收藏
最近几天,我参加了公司组织的几次产品讨论会,主要议题是是否值得开发以大型语言模型(LLM)技术为核心的产品。目前市场上一些基于LLM的产品未能达到预期的盈利水平,这让大家对LLM的商业潜力产生了疑虑,并在多次讨论会上探讨未来的发展方向。不可否认的是,人工智能初创企业的竞争非常激烈,尤其是在大型语言模型的推动下,许多初创公司如雨后春笋般涌现。然而,尽管这一领域有着明显的发展趋势,只有少数生成型人工智能初创...
2024-11-25 09:37:51 745浏览 0点赞 0回复 0收藏
​检索增强型生成(RAG)技术已被证明在整合最新信息、减少错误想象以及提升回应质量方面非常有效,特别是在特定领域中。虽然已经提出了许多旨在通过查询依赖的检索来增强大型语言模型的RAG方法,但这些方法仍然受到其复杂实现和延长响应时间的影响。通常,一个RAG工作流涉及多个处理步骤,每个步骤都可以以不同的方式执行。那么哪些处理步骤的组合能起到好的效果呢?今天给大家分享一篇相关的论文:RAG领域的最佳实践[1]。1.介...
2024-11-25 09:34:34 1743浏览 0点赞 0回复 0收藏
自从2022年12月ChatGPT横空面世以来,AI领域获得了十足的关注和资本,其实AI的概念在早些年也火过一波,本轮AI热潮相比于之前的AI,最大的区别在于:生成式。通过海量文本训练的、能识别人类语言、执行语言类任务、拥有大量参数的模型,称之为大语言模型。GPT、LLaMA、Mistral、BERT等都是LLM,LLM是对训练文本信息的压缩,同时拥有了泛化能力,不同于数据库和搜索引擎,LLM能创造性地生成历史上没有出现过的文本内容。虽然LLM...
2024-11-20 12:03:58 3251浏览 0点赞 0回复 0收藏
我阅读了一篇有关"AdvancedRAG"的论文,在阅读这篇论文后,我发现其中的一些概念和技术具有很高的实用价值。接下来,我将结合我在公司的实践经验,分享以下RAG系统的三个阶段的优化:预检索和数据索引技术检索技术检索后处理预检索和数据索引技术使用LLM增加信息密度如果来⾃异构数据源(例如PDF、抓取的⽹络数据、⾳频记录)的⾮结构化数据没有经过特定处理,信息密度比较低下,包含不相关的信息和或噪⾳,或者有很多信息重复...
2024-11-20 11:52:11 705浏览 0点赞 0回复 0收藏
​最近工作比较忙,一直在重构公司现有的RAG推荐系统。在给GraphRAG提交了几个PR并成功合并后,暂时没有继续对GraphRAG做出更多贡献。然而,最近同事和粉丝纷纷私信我,他们最常问的问题有:"什么时候应该使用GraphRAG?","在哪些场景下应该使用传统的RAG"以及"我们目前在公司使用的是传统RAG,那要如何与GraphRAG相结合呢?"。为了系统地解答这些问题,我决定写一篇文章,对这些问题进行详细的探讨。我将先从多个方面解释Grap...
2024-11-20 11:21:06 1260浏览 0点赞 0回复 0收藏
在使用LLM应用时,我们经常会遇到需要向知识库中添加新文件的需求。传统的RAG通过对chunk进行embedding来处理这种情况,并且新文件的加入不会影响之前生成的chunkembedding。但是,GraphRAG的处理方式有所不同。由于其索引过程涉及多个pipeline阶段,因此可能会产生一些问题:当新文件加入时,是否需要对已有的文件重新进行索引?缓存在这个过程中起到了什么作用?哪些workflow需要重做?带着这些问题,我们来一探究竟。GraphRA...
2024-11-19 15:59:13 801浏览 0点赞 0回复 0收藏
获得成就
已积累 7027 人气
获得 0 个点赞
获得 0 次收藏