
TypeScript版LlamaIndex来袭!用Agentic RAG构建智能AI代理,效率与隐私双提升! 原创
想象一下,有一个私人研究助手不仅能理解你的问题,还能智能地决定如何找到答案。对于某些问题,它会深入你的文档库中查找答案,而对于其他问题,它则会生成富有创意的回应。这听起来是不是很酷?其实,这一切都可以通过使用 Agentic RAG(检索增强型生成) 和 LlamaIndex TypeScript 系统来实现。
无论你是想创建一个文献分析系统、技术文档助手,还是任何知识密集型应用,本文介绍的方法都将为你提供一个实用的基础框架。接下来,我们将通过一个实际的动手项目,带你一步步构建这样一个系统,从设置本地模型到实现专门的工具,最终交付令人惊叹的结果。
为什么选择 TypeScript?
TypeScript 是一种强大的编程语言,它为构建基于 LLM(大型语言模型)的 AI 应用提供了诸多优势:
- 类型安全:TypeScript 的静态类型检查可以在开发过程中捕捉错误,而不是等到运行时才发现。
- 更好的 IDE 支持:自动补全和智能提示让开发过程更快捷。
- 提高可维护性:类型定义让代码更易读,也更具自文档性。
- 无缝 JavaScript 集成:TypeScript 可以与现有的 JavaScript 库无缝对接。
- 可扩展性:随着你的 RAG 应用不断扩展,TypeScript 的结构化特性有助于管理复杂性。
- 框架支持:Vite、NextJS 等强大的 Web 框架与 TypeScript 无缝连接,让构建基于 AI 的 Web 应用变得轻松且可扩展。
LlamaIndex 的优势
LlamaIndex 是一个强大的框架,用于构建基于 LLM 的 AI 应用。它提供了以下优势:
- 简化数据加载:通过 LlamaParse,可以轻松加载和处理本地或云端的文档。
- 向量存储:内置支持嵌入和检索语义信息,支持与 ChromaDB、Milvus、Weaviate 和 pgvector 等行业标准数据库的集成。
- 工具集成:可以创建和管理多个专业工具。
- 代理插件:你可以轻松构建或插入第三方代理。
- 查询引擎灵活性:可以根据不同的用例定制查询处理。
- 持久化支持:可以保存和加载索引,提高重复使用的效率。
什么是 Agentic RAG?
在深入实现之前,我们先来了解一下 Agentic RAG 是什么。RAG(检索增强型生成)是一种技术,通过从知识库中检索相关信息来增强语言模型的输出,然后利用这些信息生成更准确、更符合事实的回应。而 Agentic 系统则涉及 AI 根据用户查询决定采取哪些行动,有效地作为一个智能助手,选择合适的工具来满足请求。
Agentic RAG 系统结合了这两种方法,创建了一个既能从知识库中检索信息,又能根据需要使用其他工具的 AI 助手。根据用户问题的性质,它会决定是使用内置知识、查询向量数据库,还是调用外部工具。
开发环境搭建
安装 Node.js
在 Windows 上安装 Node.js 的步骤如下:
其他系统可以参考 官方文档。
从简单数学代理开始
让我们先从一个简单的数学代理开始,了解 LlamaIndex TypeScript API 的基本用法。
第一步:设置工作环境
创建一个新目录,进入该目录并初始化一个 Node.js 项目,安装必要的依赖:
我们将为数学代理创建两个工具:
- 一个加法工具,用于计算两个数字的和。
- 一个除法工具,用于计算两个数字的商。
第二步:导入必要的模块
在你的脚本中添加以下导入:
第三步:创建 Ollama 模型实例
实例化 Llama 模型:
现在,你可以通过 Settings
直接为系统设置主模型,或者在代理中直接使用不同的模型。
第四步:创建数学代理工具
创建加法和除法工具:
这里我们使用了 Zod 库来验证工具的参数。同样地,我们创建一个除法工具:
第五步:创建数学代理
在主函数中,我们创建一个数学代理,使用这些工具进行计算:
如果你直接通过 Settings
设置 LLM,那么你不需要在代理中显式指定 LLM 参数。如果你希望为不同的代理使用不同的模型,那么必须显式指定 llm
参数。
运行这段代码后,你将得到如下输出:
接下来,我们尝试一个更复杂的查询:
输出:
哇,我们的小 Llama3.2 1B 模型表现得相当出色,能够准确地处理代理任务并进行计算!现在,让我们深入到项目的主体部分。
构建 Agentic RAG 应用
开发环境搭建
按照以下步骤设置开发环境:
同时,从 Ollama 中拉取必要的模型,例如 Llama3.2:1b
和 nomic-embed-text
。
在我们的应用中,我们将有四个模块:
- load-index:用于加载和索引文本文件。
- query-paul:用于查询 Paul Graham 的文章。
- constant:用于存储可重用的常量。
- app:用于运行整个应用。
首先,创建 constant.ts
文件和 data
文件夹:
这是一个包含必要常量的对象,将在整个应用中多次使用。创建一个 data
文件夹,并将文本文件放入其中。你可以从 这里 下载数据源。
实现加载和索引模块
以下是加载和索引模块的实现流程:
导入必要的包
创建 Ollama 模型实例
设置系统模型
实现 indexAndStorage
函数
这段代码将创建一个持久化存储空间,用于存储索引和嵌入文件。然后,它将从项目的数据目录中加载文本数据,并使用 LlamaIndex 的 Document
方法创建一个文档对象。最后,它将使用 VectorStoreIndex
方法从该文档创建一个向量索引。
导出函数
实现查询模块
接下来,我们实现查询模块。创建一个名为 query-paul.ts
的文件。
导入必要的包
创建和设置模型
创建和设置模型的方式与前面相同。
实现 loadAndQuery
函数
在这段代码中,我们首先从 STORAGE_DIR
中加载存储上下文,然后使用 VectorStoreIndex.init()
方法加载已索引的文件。加载完成后,我们创建一个检索器和查询引擎。接下来,我们创建一个工具,该工具可以从已索引的文件中回答问题,并将其添加到名为 ragAgent
的代理中。
然后,我们通过查询引擎和代理分别查询已索引的文章,并将响应输出到终端。
导出函数
实现 app.ts
现在,我们将所有模块整合到一个 app.ts
文件中,方便执行。
在这里,我们导入所有模块,按顺序执行它们,并运行应用。
运行应用
在终端中运行以下命令:
首次运行时,可能会发生以下几件事:
- 它会提示你安装
tsx
,请按照提示安装。 - 它会根据你的系统性能花费一些时间来嵌入文档(这是一次性的操作)。
- 最后,它会返回响应。
以下是首次运行的示例:
没有代理时,响应可能如下所示:
使用代理时,响应可能如下所示:
今天的分享就到这里。希望这篇文章能帮助你了解 TypeScript 的工作流程。
项目代码仓库
你可以在 这里 找到完整的项目代码。
总结
这是一个简单但功能强大的 Agentic RAG Using LlamaIndex TypeScript 系统。通过这篇文章,我想让你了解除了 Python 之外,还可以使用 TypeScript 来构建 Agentic RAG Using LlamaIndex TypeScript 或其他基于 LLM 的 AI 应用。Agentic RAG 系统是基本 RAG 实现的有力进化,能够根据用户查询提供更智能、更灵活的响应。使用 LlamaIndex 和 TypeScript,你可以以类型安全、可维护的方式构建这样的系统,并且它能够很好地与 Web 应用生态系统集成。
关键要点
- TypeScript + LlamaIndex为构建 RAG 系统提供了坚实的基础。
- 嵌入文件的持久化存储提高了重复查询的效率。
- Agentic 方法根据查询内容实现更智能的工具选择。
- 本地模型执行提供了隐私和成本优势。
- 专业工具可以针对不同领域的知识进行处理。
- Agentic RAG Using LlamaIndex TypeScript通过启用智能、动态的响应,增强了检索增强型生成。
常见问题解答
Q1:如何扩展这个系统以处理多个文档源?
A1:你可以修改索引函数,从多个文件或数据源加载文档,并将一个文档对象数组传递给 VectorStoreIndex
方法。
Q2:这种方法是否支持其他 LLM 提供商,而不仅仅是 Ollama?
A2:是的!LlamaIndex 支持多种 LLM 提供商,包括 OpenAI、Antropic 等。你可以将 Ollama 设置替换为任何支持的提供商。
Q3:如何提高特定领域问题的响应质量?
A3:可以考虑在特定领域数据上微调你的嵌入模型,或者实现自定义检索策略,根据你的具体用例优先检索某些文档部分。
Q4:直接查询和使用代理方法有什么区别?
A4:直接查询只是检索相关内容并生成响应,而代理方法首先决定哪个工具最适合查询,可能会结合多个来源的信息,或者为不同类型的查询使用专门的处理。
希望这篇文章能帮助你更好地理解和使用 TypeScript 和 LlamaIndex 构建智能应用!
本文转载自公众号Halo咯咯 作者:基咯咯
原文链接:https://mp.weixin.qq.com/s/tOSntLc37ffZlvhoBrWmJg
