支持私有云部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


TypeScript版LlamaIndex来袭!用Agentic RAG构建智能AI代理,效率与隐私双提升!

发布日期:2025-04-03 12:51:18 浏览次数: 1544 作者:Halo咯咯
推荐语

利用Agentic RAG和LlamaIndex TypeScript系统,打造你的私人智能AI助手,实现效率与隐私的双重飞跃。

核心内容:
1. Agentic RAG技术与LlamaIndex框架的结合优势
2. TypeScript在构建AI应用中的关键优势
3. 实战项目:从搭建开发环境到交付智能AI助手的完整步骤

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

想象一下,有一个私人研究助手不仅能理解你的问题,还能智能地决定如何找到答案。对于某些问题,它会深入你的文档库中查找答案,而对于其他问题,它则会生成富有创意的回应。这听起来是不是很酷?其实,这一切都可以通过使用 Agentic RAG(检索增强型生成) 和 LlamaIndex TypeScript 系统来实现。

无论你是想创建一个文献分析系统、技术文档助手,还是任何知识密集型应用,本文介绍的方法都将为你提供一个实用的基础框架。接下来,我们将通过一个实际的动手项目,带你一步步构建这样一个系统,从设置本地模型到实现专门的工具,最终交付令人惊叹的结果。

为什么选择 TypeScript?

TypeScript 是一种强大的编程语言,它为构建基于 LLM(大型语言模型)的 AI 应用提供了诸多优势:

  • 类型安全:TypeScript 的静态类型检查可以在开发过程中捕捉错误,而不是等到运行时才发现。
  • 更好的 IDE 支持:自动补全和智能提示让开发过程更快捷。
  • 提高可维护性:类型定义让代码更易读,也更具自文档性。
  • 无缝 JavaScript 集成:TypeScript 可以与现有的 JavaScript 库无缝对接。
  • 可扩展性:随着你的 RAG 应用不断扩展,TypeScript 的结构化特性有助于管理复杂性。
  • 框架支持:Vite、NextJS 等强大的 Web 框架与 TypeScript 无缝连接,让构建基于 AI 的 Web 应用变得轻松且可扩展。

LlamaIndex 的优势

LlamaIndex 是一个强大的框架,用于构建基于 LLM 的 AI 应用。它提供了以下优势:

  • 简化数据加载:通过 LlamaParse,可以轻松加载和处理本地或云端的文档。
  • 向量存储:内置支持嵌入和检索语义信息,支持与 ChromaDB、Milvus、Weaviate 和 pgvector 等行业标准数据库的集成。
  • 工具集成:可以创建和管理多个专业工具。
  • 代理插件:你可以轻松构建或插入第三方代理。
  • 查询引擎灵活性:可以根据不同的用例定制查询处理。
  • 持久化支持:可以保存和加载索引,提高重复使用的效率。

什么是 Agentic RAG?

在深入实现之前,我们先来了解一下 Agentic RAG 是什么。RAG(检索增强型生成)是一种技术,通过从知识库中检索相关信息来增强语言模型的输出,然后利用这些信息生成更准确、更符合事实的回应。而 Agentic 系统则涉及 AI 根据用户查询决定采取哪些行动,有效地作为一个智能助手,选择合适的工具来满足请求。

Agentic RAG 系统结合了这两种方法,创建了一个既能从知识库中检索信息,又能根据需要使用其他工具的 AI 助手。根据用户问题的性质,它会决定是使用内置知识、查询向量数据库,还是调用外部工具。

开发环境搭建

安装 Node.js

在 Windows 上安装 Node.js 的步骤如下:

# 下载并安装 fnm
winget install Schniz.fnm

# 下载并安装 Node.js
fnm install 22

# 验证 Node.js 版本
node -v # 应输出 "v22.14.0"

# 验证 npm 版本
npm -v # 应输出 "10.9.2"

其他系统可以参考 官方文档

从简单数学代理开始

让我们先从一个简单的数学代理开始,了解 LlamaIndex TypeScript API 的基本用法。

第一步:设置工作环境

创建一个新目录,进入该目录并初始化一个 Node.js 项目,安装必要的依赖:

$ md simple-agent
cd simple-agent
$ npm init
$ npm install llamaindex @llamaindex/ollama

我们将为数学代理创建两个工具:

  • 一个加法工具,用于计算两个数字的和。
  • 一个除法工具,用于计算两个数字的商。

第二步:导入必要的模块

在你的脚本中添加以下导入:

import { agent, Settings, tool } from "llamaindex";
import { z } from "zod";
import { Ollama, OllamaEmbedding } from "@llamaindex/ollama";

第三步:创建 Ollama 模型实例

实例化 Llama 模型:

const llama3 = new Ollama({
  model: "llama3.2:1b",
});

现在,你可以通过 Settings 直接为系统设置主模型,或者在代理中直接使用不同的模型。

Settings.llm = llama3;

第四步:创建数学代理工具

创建加法和除法工具:

const addNumbers = tool({
  name: "SumNumbers",
  description: "使用此函数计算两个数字的和",
  parameters: z.object({
    a: z.number().describe("第一个数字"),
    b: z.number().describe("第二个数字"),
  }),
  execute: ({ a, b }: { a: number; b: number }) => `${a + b}`,
});

这里我们使用了 Zod 库来验证工具的参数。同样地,我们创建一个除法工具:

const divideNumbers = tool({
  name: "divideNumber",
  description: "使用此函数计算两个数字的商",
  parameters: z.object({
    a: z.number().describe("被除数"),
    b: z.number().describe("除数"),
  }),
  execute: ({ a, b }: { a: number; b: number }) => `${a / b}`,
});

第五步:创建数学代理

在主函数中,我们创建一个数学代理,使用这些工具进行计算:

async function main(query: string{
const mathAgent = agent({
    tools: [addNumbers, divideNumbers],
    llm: llama3,
    verbose: false,
  });

const response = await mathAgent.run(query);
console.log(response.data);
}

// 驱动代码,运行应用
const query = "Add two number 5 and 7 and divide by 2";
void main(query).then(() => {
console.log("Done");
});

如果你直接通过 Settings 设置 LLM,那么你不需要在代理中显式指定 LLM 参数。如果你希望为不同的代理使用不同的模型,那么必须显式指定 llm 参数。

运行这段代码后,你将得到如下输出:

接下来,我们尝试一个更复杂的查询:

const query = "If the total number of boys in a class is 50 and girls is 30, what is the total number of students in the class?";
void main(query).then(() => {
  console.log("Done");
});

输出:

哇,我们的小 Llama3.2 1B 模型表现得相当出色,能够准确地处理代理任务并进行计算!现在,让我们深入到项目的主体部分。

构建 Agentic RAG 应用

开发环境搭建

按照以下步骤设置开发环境:

$ md agentic-rag-app
cd agentic-rag-app
$ npm init
$ npm install llamaindex @llamaindex/ollama

同时,从 Ollama 中拉取必要的模型,例如 Llama3.2:1b 和 nomic-embed-text

在我们的应用中,我们将有四个模块:

  • load-index:用于加载和索引文本文件。
  • query-paul:用于查询 Paul Graham 的文章。
  • constant:用于存储可重用的常量。
  • app:用于运行整个应用。

首先,创建 constant.ts 文件和 data 文件夹:

// constant.ts
const constant = {
  STORAGE_DIR: "./storage",
  DATA_FILE: "data/pual-essay.txt",
};

export default constant;

这是一个包含必要常量的对象,将在整个应用中多次使用。创建一个 data 文件夹,并将文本文件放入其中。你可以从 这里 下载数据源。

实现加载和索引模块

以下是加载和索引模块的实现流程:

导入必要的包

import { Settings, storageContextFromDefaults } from "llamaindex";
import { Ollama, OllamaEmbedding } from "@llamaindex/ollama";
import { Document, VectorStoreIndex } from "llamaindex";
import fs from "fs/promises";
import constant from "./constant";

创建 Ollama 模型实例

const llama3 = new Ollama({
  model: "llama3.2:1b",
});

const nomic = new OllamaEmbedding({
  model: "nomic-embed-text",
});

设置系统模型

Settings.llm = llama3;
Settings.embedModel = nomic;

实现 indexAndStorage 函数

async function indexAndStorage({
try {
    // 设置持久化存储
    const storageContext = await storageContextFromDefaults({
      persistDir: constant.STORAGE_DIR,
    });

    // 加载文档
    const essay = await fs.readFile(constant.DATA_FILE, "utf-8");
    constdocument = new Document({
      text: essay,
      id_: "essay",
    });

    // 创建并持久化索引
    await VectorStoreIndex.fromDocuments([document], {
      storageContext,
    });

    console.log("索引和嵌入文件已成功存储!");
  } catch (error) {
    console.log("索引过程中发生错误:", error);
  }
}

这段代码将创建一个持久化存储空间,用于存储索引和嵌入文件。然后,它将从项目的数据目录中加载文本数据,并使用 LlamaIndex 的 Document 方法创建一个文档对象。最后,它将使用 VectorStoreIndex 方法从该文档创建一个向量索引。

导出函数

export default indexAndStorage;

实现查询模块

接下来,我们实现查询模块。创建一个名为 query-paul.ts 的文件。

导入必要的包

import {
  Settings,
  storageContextFromDefaults,
  VectorStoreIndex,
from "llamaindex";
import constant from "./constant";
import { Ollama, OllamaEmbedding } from "@llamaindex/ollama";
import { agent } from "llamaindex";

创建和设置模型

创建和设置模型的方式与前面相同。

实现 loadAndQuery 函数

async function loadAndQuery(query: string{
try {
    // 从持久化存储中加载索引
    const storageContext = await storageContextFromDefaults({
      persistDir: constant.STORAGE_DIR,
    });

    // 加载已有的索引
    const index = await VectorStoreIndex.init({ storageContext });

    // 创建检索器和查询引擎
    const retriever = index.asRetriever();
    const queryEngine = index.asQueryEngine({ retriever });

    const tools = [
      index.queryTool({
        metadata: {
          name: "paul_graham_essay_tool",
          description: `此工具可以回答有关 Paul Graham 文章的详细问题。`,
        },
      }),
    ];
    const ragAgent = agent({ tools });

    // 查询已索引的文章
    const response = await queryEngine.query({ query });
    let toolResponse = await ragAgent.run(query);

    console.log("响应:", response.message);
    console.log("工具响应:", toolResponse);
  } catch (error) {
    console.log("检索过程中发生错误:", error);
  }
}

在这段代码中,我们首先从 STORAGE_DIR 中加载存储上下文,然后使用 VectorStoreIndex.init() 方法加载已索引的文件。加载完成后,我们创建一个检索器和查询引擎。接下来,我们创建一个工具,该工具可以从已索引的文件中回答问题,并将其添加到名为 ragAgent 的代理中。

然后,我们通过查询引擎和代理分别查询已索引的文章,并将响应输出到终端。

导出函数

export default loadAndQuery;

实现 app.ts

现在,我们将所有模块整合到一个 app.ts 文件中,方便执行。

import indexAndStorage from"./load-index";
import loadAndQuery from"./query-paul";

function main(query: string{
console.log("======================================");
console.log("正在索引数据....");
  indexAndStorage();
console.log("数据索引完成!");
console.log("请稍候,正在获取响应或订阅!");
  loadAndQuery(query);
}

const query = "什么是生活?";
main(query);

在这里,我们导入所有模块,按顺序执行它们,并运行应用。

运行应用

在终端中运行以下命令:

$ npx tsx ./app.ts

首次运行时,可能会发生以下几件事:

  1. 它会提示你安装 tsx,请按照提示安装。
  2. 它会根据你的系统性能花费一些时间来嵌入文档(这是一次性的操作)。
  3. 最后,它会返回响应。

以下是首次运行的示例:

没有代理时,响应可能如下所示:

使用代理时,响应可能如下所示:

今天的分享就到这里。希望这篇文章能帮助你了解 TypeScript 的工作流程。

项目代码仓库

你可以在 这里 找到完整的项目代码。

总结

这是一个简单但功能强大的 Agentic RAG Using LlamaIndex TypeScript 系统。通过这篇文章,我想让你了解除了 Python 之外,还可以使用 TypeScript 来构建 Agentic RAG Using LlamaIndex TypeScript 或其他基于 LLM 的 AI 应用。Agentic RAG 系统是基本 RAG 实现的有力进化,能够根据用户查询提供更智能、更灵活的响应。使用 LlamaIndex 和 TypeScript,你可以以类型安全、可维护的方式构建这样的系统,并且它能够很好地与 Web 应用生态系统集成。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询