微信扫码
添加专属顾问
我要投稿
利用Agentic RAG和LlamaIndex TypeScript系统,打造你的私人智能AI助手,实现效率与隐私的双重飞跃。 核心内容: 1. Agentic RAG技术与LlamaIndex框架的结合优势 2. TypeScript在构建AI应用中的关键优势 3. 实战项目:从搭建开发环境到交付智能AI助手的完整步骤
想象一下,有一个私人研究助手不仅能理解你的问题,还能智能地决定如何找到答案。对于某些问题,它会深入你的文档库中查找答案,而对于其他问题,它则会生成富有创意的回应。这听起来是不是很酷?其实,这一切都可以通过使用 Agentic RAG(检索增强型生成) 和 LlamaIndex TypeScript 系统来实现。
无论你是想创建一个文献分析系统、技术文档助手,还是任何知识密集型应用,本文介绍的方法都将为你提供一个实用的基础框架。接下来,我们将通过一个实际的动手项目,带你一步步构建这样一个系统,从设置本地模型到实现专门的工具,最终交付令人惊叹的结果。
TypeScript 是一种强大的编程语言,它为构建基于 LLM(大型语言模型)的 AI 应用提供了诸多优势:
LlamaIndex 是一个强大的框架,用于构建基于 LLM 的 AI 应用。它提供了以下优势:
在深入实现之前,我们先来了解一下 Agentic RAG 是什么。RAG(检索增强型生成)是一种技术,通过从知识库中检索相关信息来增强语言模型的输出,然后利用这些信息生成更准确、更符合事实的回应。而 Agentic 系统则涉及 AI 根据用户查询决定采取哪些行动,有效地作为一个智能助手,选择合适的工具来满足请求。
Agentic RAG 系统结合了这两种方法,创建了一个既能从知识库中检索信息,又能根据需要使用其他工具的 AI 助手。根据用户问题的性质,它会决定是使用内置知识、查询向量数据库,还是调用外部工具。
在 Windows 上安装 Node.js 的步骤如下:
# 下载并安装 fnm
winget install Schniz.fnm
# 下载并安装 Node.js
fnm install 22
# 验证 Node.js 版本
node -v # 应输出 "v22.14.0"
# 验证 npm 版本
npm -v # 应输出 "10.9.2"
其他系统可以参考 官方文档。
让我们先从一个简单的数学代理开始,了解 LlamaIndex TypeScript API 的基本用法。
创建一个新目录,进入该目录并初始化一个 Node.js 项目,安装必要的依赖:
$ md simple-agent
$ cd simple-agent
$ npm init
$ npm install llamaindex @llamaindex/ollama
我们将为数学代理创建两个工具:
在你的脚本中添加以下导入:
import { agent, Settings, tool } from "llamaindex";
import { z } from "zod";
import { Ollama, OllamaEmbedding } from "@llamaindex/ollama";
实例化 Llama 模型:
const llama3 = new Ollama({
model: "llama3.2:1b",
});
现在,你可以通过 Settings
直接为系统设置主模型,或者在代理中直接使用不同的模型。
Settings.llm = llama3;
创建加法和除法工具:
const addNumbers = tool({
name: "SumNumbers",
description: "使用此函数计算两个数字的和",
parameters: z.object({
a: z.number().describe("第一个数字"),
b: z.number().describe("第二个数字"),
}),
execute: ({ a, b }: { a: number; b: number }) => `${a + b}`,
});
这里我们使用了 Zod 库来验证工具的参数。同样地,我们创建一个除法工具:
const divideNumbers = tool({
name: "divideNumber",
description: "使用此函数计算两个数字的商",
parameters: z.object({
a: z.number().describe("被除数"),
b: z.number().describe("除数"),
}),
execute: ({ a, b }: { a: number; b: number }) => `${a / b}`,
});
在主函数中,我们创建一个数学代理,使用这些工具进行计算:
async function main(query: string) {
const mathAgent = agent({
tools: [addNumbers, divideNumbers],
llm: llama3,
verbose: false,
});
const response = await mathAgent.run(query);
console.log(response.data);
}
// 驱动代码,运行应用
const query = "Add two number 5 and 7 and divide by 2";
void main(query).then(() => {
console.log("Done");
});
如果你直接通过 Settings
设置 LLM,那么你不需要在代理中显式指定 LLM 参数。如果你希望为不同的代理使用不同的模型,那么必须显式指定 llm
参数。
运行这段代码后,你将得到如下输出:
接下来,我们尝试一个更复杂的查询:
const query = "If the total number of boys in a class is 50 and girls is 30, what is the total number of students in the class?";
void main(query).then(() => {
console.log("Done");
});
输出:
哇,我们的小 Llama3.2 1B 模型表现得相当出色,能够准确地处理代理任务并进行计算!现在,让我们深入到项目的主体部分。
按照以下步骤设置开发环境:
$ md agentic-rag-app
$ cd agentic-rag-app
$ npm init
$ npm install llamaindex @llamaindex/ollama
同时,从 Ollama 中拉取必要的模型,例如 Llama3.2:1b
和 nomic-embed-text
。
在我们的应用中,我们将有四个模块:
首先,创建 constant.ts
文件和 data
文件夹:
// constant.ts
const constant = {
STORAGE_DIR: "./storage",
DATA_FILE: "data/pual-essay.txt",
};
export default constant;
这是一个包含必要常量的对象,将在整个应用中多次使用。创建一个 data
文件夹,并将文本文件放入其中。你可以从 这里 下载数据源。
以下是加载和索引模块的实现流程:
import { Settings, storageContextFromDefaults } from "llamaindex";
import { Ollama, OllamaEmbedding } from "@llamaindex/ollama";
import { Document, VectorStoreIndex } from "llamaindex";
import fs from "fs/promises";
import constant from "./constant";
const llama3 = new Ollama({
model: "llama3.2:1b",
});
const nomic = new OllamaEmbedding({
model: "nomic-embed-text",
});
Settings.llm = llama3;
Settings.embedModel = nomic;
indexAndStorage
函数async function indexAndStorage() {
try {
// 设置持久化存储
const storageContext = await storageContextFromDefaults({
persistDir: constant.STORAGE_DIR,
});
// 加载文档
const essay = await fs.readFile(constant.DATA_FILE, "utf-8");
constdocument = new Document({
text: essay,
id_: "essay",
});
// 创建并持久化索引
await VectorStoreIndex.fromDocuments([document], {
storageContext,
});
console.log("索引和嵌入文件已成功存储!");
} catch (error) {
console.log("索引过程中发生错误:", error);
}
}
这段代码将创建一个持久化存储空间,用于存储索引和嵌入文件。然后,它将从项目的数据目录中加载文本数据,并使用 LlamaIndex 的 Document
方法创建一个文档对象。最后,它将使用 VectorStoreIndex
方法从该文档创建一个向量索引。
export default indexAndStorage;
接下来,我们实现查询模块。创建一个名为 query-paul.ts
的文件。
import {
Settings,
storageContextFromDefaults,
VectorStoreIndex,
} from "llamaindex";
import constant from "./constant";
import { Ollama, OllamaEmbedding } from "@llamaindex/ollama";
import { agent } from "llamaindex";
创建和设置模型的方式与前面相同。
loadAndQuery
函数async function loadAndQuery(query: string) {
try {
// 从持久化存储中加载索引
const storageContext = await storageContextFromDefaults({
persistDir: constant.STORAGE_DIR,
});
// 加载已有的索引
const index = await VectorStoreIndex.init({ storageContext });
// 创建检索器和查询引擎
const retriever = index.asRetriever();
const queryEngine = index.asQueryEngine({ retriever });
const tools = [
index.queryTool({
metadata: {
name: "paul_graham_essay_tool",
description: `此工具可以回答有关 Paul Graham 文章的详细问题。`,
},
}),
];
const ragAgent = agent({ tools });
// 查询已索引的文章
const response = await queryEngine.query({ query });
let toolResponse = await ragAgent.run(query);
console.log("响应:", response.message);
console.log("工具响应:", toolResponse);
} catch (error) {
console.log("检索过程中发生错误:", error);
}
}
在这段代码中,我们首先从 STORAGE_DIR
中加载存储上下文,然后使用 VectorStoreIndex.init()
方法加载已索引的文件。加载完成后,我们创建一个检索器和查询引擎。接下来,我们创建一个工具,该工具可以从已索引的文件中回答问题,并将其添加到名为 ragAgent
的代理中。
然后,我们通过查询引擎和代理分别查询已索引的文章,并将响应输出到终端。
export default loadAndQuery;
app.ts
现在,我们将所有模块整合到一个 app.ts
文件中,方便执行。
import indexAndStorage from"./load-index";
import loadAndQuery from"./query-paul";
function main(query: string) {
console.log("======================================");
console.log("正在索引数据....");
indexAndStorage();
console.log("数据索引完成!");
console.log("请稍候,正在获取响应或订阅!");
loadAndQuery(query);
}
const query = "什么是生活?";
main(query);
在这里,我们导入所有模块,按顺序执行它们,并运行应用。
在终端中运行以下命令:
$ npx tsx ./app.ts
首次运行时,可能会发生以下几件事:
tsx
,请按照提示安装。以下是首次运行的示例:
没有代理时,响应可能如下所示:
使用代理时,响应可能如下所示:
今天的分享就到这里。希望这篇文章能帮助你了解 TypeScript 的工作流程。
你可以在 这里 找到完整的项目代码。
这是一个简单但功能强大的 Agentic RAG Using LlamaIndex TypeScript 系统。通过这篇文章,我想让你了解除了 Python 之外,还可以使用 TypeScript 来构建 Agentic RAG Using LlamaIndex TypeScript 或其他基于 LLM 的 AI 应用。Agentic RAG 系统是基本 RAG 实现的有力进化,能够根据用户查询提供更智能、更灵活的响应。使用 LlamaIndex 和 TypeScript,你可以以类型安全、可维护的方式构建这样的系统,并且它能够很好地与 Web 应用生态系统集成。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-03-25
解锁 llamaindex agentworkflow 的潜力:有效多代理编排的 5 个关键策略
2025-02-25
首发完整版教程,MCP 集成至 LlamaIndex 的技术实践
2025-01-11
LlamaIndex :企业级知识助理,万物可知
2024-12-26
深入了解 LlamaIndex 工作流程:事件驱动的 LLM 架构
2024-12-23
LlamaIndex工作流详解:提升数据处理效率的关键
2024-12-17
llamaindex实战-ChatEngine-Context(上下文)模式
2024-12-01
LlamaIndex,让AI唤醒你的数据
2024-11-29
llamaindex实战-Agent-自定义工具函数
2024-07-09
2024-04-25
2024-04-20
2024-04-28
2024-06-05
2024-05-09
2024-06-19
2024-07-20
2024-04-26
2024-04-19