
回复
将推理与RAG相结合仍面临挑战,例如复杂查询需要多步分解,且LLMs难以生成精确的子查询,导致检索效率低下。
人类思维过程与 DeepRAG 的对应关系。具体来说,检索叙事确保了结构化和自适应的检索流程,根据之前检索到的信息生成子查询,并且原子决策动态地决定是否检索外部知识,或者仅依赖于每个子查询的参数知识。
中科院&中科大&腾讯微信AI部联合推出最新(2025.02)DeepRAG,让大型语言模型逐步推理检索:
DeepRAG框架将检索增强推理建模为马尔可夫决策过程(MDP),通过迭代分解查询,动态决定是否检索外部知识或依赖参数推理。
DeepRAG 框架的概述,包括三个步骤:(1)二叉树搜索,(2)模仿学习,以及(3)校准链。给定一个数据集,首先使用二叉树搜索来合成模仿学习的数据,使模型能够学习检索模式。随后,利用二叉树搜索构建偏好数据,以进一步校准 LLM 对其知识边界的认知。
框架包含三个关键步骤:
数据集:使用五个开放域问答数据集,包括HotpotQA、2WikiMultihopQA、CAG、PopQA和WebQuestions。
基线:与多种现有方法进行比较,包括CoT、CoT-Retrieve、IterDRAG、UAR、FLARE、DRAGIN、TAARE和AutoRAG。
DeepRAG在所有数据集上均优于现有方法,平均答案准确率提高了21.99%,同时提高了检索效率。
案例研究:Auto-RAG 与 DeepRAG 的对比。DeepRAG 通过原子级查询分解、可靠的中间答案以及自适应地使用内部知识实现了成功。
https://arxiv.org/abs/2502.01142
DeepRAG: Thinking to Retrieval Step by Step for Large Language Models
本文转载自PaperAgent