AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


【开源】一个利用记忆、知识和工具构建人工智能助手的框架
发布日期:2024-10-27 11:40:00 浏览次数: 1730 来源:三丰述码


人工智能助手

人工智能助手(AI Assistant)是一种利用人工智能技术开发的软件或系统,旨在为用户提供个性化的帮助、信息检索、任务执行、自动化处理等多种服务。这些助手能够理解和响应自然语言指令,学习用户的习惯与偏好,并在各种场景下辅助用户完成复杂或日常的任务。

人工智能助手的核心功能包括但不限于:

1. 自然语言处理:能够识别和理解人类语言,包括文本和语音,从而与用户进行流畅的对话交流。

2. 智能问答:根据用户的问题或请求,从互联网、数据库或内置知识库中检索相关信息,并给出准确的答案或建议。

3. 任务管理:帮助用户管理日程、提醒事项、待办清单等,自动安排优先级,甚至执行一些简单的任务,如发送邮件、设置闹钟等。

4. 个性化推荐:通过分析用户的行为和偏好,提供个性化的内容推荐,如新闻、音乐、电影、购物建议等。

5. 智能家居控制:与智能家居设备连接,允许用户通过语音或手机应用远程控制家中的灯光、温度、安防系统等。

6. 学习与适应:随着使用时间的增长,人工智能助手能够学习用户的习惯、偏好和情绪,不断优化自己的响应和服务质量。

目前,市场上存在多种类型的人工智能助手,如智能手机上的语音助手(如Siri、Google Assistant、小爱同学等)、智能家居中心(如Amazon Echo、Google Home)、以及特定领域的专业助手(如医疗咨询助手、法律文档助手等)。这些助手极大地提高了人们的生活和工作效率,使得人工智能技术更加贴近普通人的生活。

介绍

在人工智能领域,构建一个能够理解并响应用户需求的智能助手是一项挑战性的任务。PhiData作为一个开源框架,为开发者提供了构建具有长期记忆、丰富知识和强大工具的AI助手的可能性。PhiData的核心优势、应用示例以及如何使用PhiData来构建自己的AI助手。

PhiData的设计理念如下,一个Assistant是以LLM为核心,加上长期记忆(Memory)、知识(结构化、非结构化)和工具(Tools,比如搜索、api调用等),这样就组成了一个完整的Assistant。

基于这些设计理念,PhiData可以帮助用户方便的构建助手应用,这些助手不仅拥有长期记忆,能够记住与用户的每一次对话,还具备丰富的业务知识和执行各种动作的能力。

应用示例

官方提供了一些example

  • LLM OS: 使用大型语言模型(LLMs)作为核心处理单元来构建一个新兴的操作系统.

  • Autonomous RAG: 自主RAG 结合检索和生成任务的模型,赋予了LLMs搜索它们的知识库、互联网或聊天记录的能力。

  • Local RAG: 本地RAG 利用Ollama和PgVector等技术,使得RAG模型可以完全在本地运行。

  • Investment Researcher: 投资研究员 利用Llama3和Groq生成关于股票的投资报告.

  • News Articles: 使用Llama3和Groq撰写新闻文章。

  • Video Summaries: 使用Llama3和Groq生成YouTube视频的摘要。

  • Research Assistant: 利用Llama3和Groq帮助研究人员编写研究报告。

PhiData开发agents#

官方仓库的cookbook目录里有一个demo agents程序,使用streamlit开发了交互界面,官方默认是用的open ai的GPT4。我们简单修改,支持groq。

左边支持选择模型,选择Tools与Assistant。我们来一探究竟,这里的tools与Assistant是如何协作的。

运行这个agents,我们从debug信息可以看到prompt。

上面的instructions 内容较多,我们抽主要的内容画一个graph图,就方便理解了:

  • 让LLM可以通过tools来处理一些具体的问题

  • 对于一些类别的任务,可以委托给特定的助手,比如研究报告、投资助手等

然后针对可以委托的助手,prompt增加了具体的描述,方便LLM去调度,每个助手内部也有各种tools,LLM可以选择合适的

当我们问英伟达最新财报, LLM 识别到需求,选用Investment Assistant助手,然后调用get_investment_report 工具

再换个问题, 今天法国发生了什么, 这个成功调用了DD搜索。

============== user ==============DEBUG今天法国发生了什么DEBUGTime to generate response: 6.3184sDEBUG============== assistant ==============DEBUGIt seems there isn't a specific tool that provides the information you're asking for, so here's the answer to your question:
Today's news from France include:
- According to Reuters, trade unions at the French ports of Le Havre and Marseille-Fos have postponed planned strikes initially planned for today and tomorrow. (<https://www.reuters.com/business/retail-consumer/french-port-workers-postpone-strike-action-2023-05-23/>)
- Le Point (French news outlet) reports that police detained 23 people after clashes near a migrant camp on the outskirts of Paris on Monday night. (<https://www.lepoint.fr/societe/immigration/revolte-dans-un-camp-de-migrants-a-paris-01-05-2023-2429234_26.php>)
- French Prime Minister Élisabeth Borne visited the damaged areas of the flooded Aude and Hérault regions. (<https://www.france24.com/fr/france/20230523-les-inondations-en-aude-et-herault-elisabeth-borne-sur-le-terrain-pour-rencontrer-les-sinistres>)

PhiData开发workflow应用#

当前像cozedify 这样的产品都支持workflow功能,可以可视化的定义workflow来解决一些相对复杂的问题,而PhiData提供了通过code编排workflow的功能。

PhiData的workflow是可以串联assistant, 比如下面的例子:

import jsonimport httpx
from phi.assistant import Assistantfrom phi.llm.groq import Groqfrom phi.workflow import Workflow, Taskfrom phi.utils.log import logger
llm_id: str = "llama3-70b-8192"def get_top_hackernews_stories(num_stories: int = 10) -> str:"""Use this function to get top stories from Hacker News.
Args:num_stories (int): Number of stories to return. Defaults to 10.
Returns:str: JSON string of top stories."""
# Fetch top story IDsresponse = httpx.get("https://hacker-news.firebaseio.com/v0/topstories.json")story_ids = response.json()
# Fetch story detailsstories = []for story_id in story_ids[:num_stories]:story_response = httpx.get(f"https://hacker-news.firebaseio.com/v0/item/{story_id}.json")story = story_response.json()story["username"] = story["by"]stories.append(story)return json.dumps(stories)

def get_user_details(username: str) -> str:"""Use this function to get the details of a Hacker News user using their username.
Args:username (str): Username of the user to get details for.
Returns:str: JSON string of the user details."""
try:logger.info(f"Getting details for user: {username}")user = httpx.get(f"https://hacker-news.firebaseio.com/v0/user/{username}.json").json()user_details = {"id": user.get("user_id"),"karma": user.get("karma"),"about": user.get("about"),"total_items_submitted": len(user.get("submitted", [])),}return json.dumps(user_details)except Exception as e:logger.exception(e)return f"Error getting user details: {e}"
groq = Groq(model=llm_id, api_key="你的API KEY")
hn_top_stories = Assistant(name="HackerNews Top Stories",llm=groq,tools=[get_top_hackernews_stories],show_tool_calls=True,)hn_user_researcher = Assistant(name="HackerNews User Researcher",llm=groq,tools=[get_user_details],show_tool_calls=True,)
writer = Assistant(name="HackerNews Writer",llm=groq,show_tool_calls=False,markdown=True)
hn_workflow = Workflow(llm=groq,name="HackerNews 工作流",tasks=[Task(description="Get top hackernews stories", assistant=hn_top_stories, show_output=False),Task(description="Get information about hackernews users", assistant=hn_user_researcher, show_output=False),Task(description="写一篇有吸引力的介绍文章,用中文输出", assistant=writer),],debug_mode=True,)# 写一篇关于在 HackerNews 上拥有前两个热门故事的用户的报告hn_workflow.print_response("Write a report about the users with the top 2 stories on hackernews", markdown=True)

定义了三个assistant获取hackernews排行榜获取文章的作者生成文章,通过Workflow来实现这三个assistant的编排。

运行结果:

┌──────────┬──────────────────────────────────────────────────────────────────┐││ Write a report about the users with the top 2 stories on ││ Message│ hackernews │├──────────┼──────────────────────────────────────────────────────────────────┤│ Response │ ┌──────────────────────────────────────────────────────────────┐ ││ (17.0s)│ │** HackerNews 知名人物介绍 ** │ │││ └──────────────────────────────────────────────────────────────┘ ││││││ 近日,我们对 HackerNews│││ 的前两名热门故事进行了分析,并对这些故事背后的用户进行了深入挖 … │││││││││ ** 排名第一:onhacker ** ││││││ 以 258 分领跑 HackerNews排行榜的用户是 │││ onhacker,他的故事《Windows 10 │││ 壁纸原来是真实拍摄的(2015)》引起了大家的关注。onhacker 的│││ HackerNews 账户信息显示,他的 karma 分数为 106,共提交了 27│││ 条内容。他的个人介绍页面上写道:“distributing distrubuted to │││ distrub”,显露出了他幽默的一面。│││││││││** 排名第二:richardatlarge **││││││ 排在第二位的用户是 richardatlarge,他的故事《OpenAI 并未复制 │││ Scarlett Johansson 的声音,记录显示》获得了 102│││ 分。richardatlarge 的 HackerNews 账户信息显示,他的 karma│││ 分数高达 1095,共提交了 354│││ 条内容。他是一名来自美国、现居新西兰的作家,个人介绍页面上留下 … │││ from the US, living in NZ”。││││││ 通过这两位用户的介绍,我们可以看到他们在 HackerNews│││ 社区中的影响力和贡献。他们热衷于分享信息和想法,引发了大家的热 … │└──────────┴──────────────────────────────────────────────────────────────────┘

llama3 的中文被弱化了,结果比较一般。

如何构建自己的RAG AI助手

基于Phidata的技术原理和优势,我们可以轻松地构建自己的RAG AI助手。以下是一些建议:

  1. 选择合适的预训练模型:选择一个性能优异的预训练模型是构建RAG AI助手的关键。Phidata提供了多种预训练模型供选择,可以根据具体需求选择合适的模型。

  2. 引入高效的检索机制:为了提升AI助手的性能,我们需要引入一种高效的检索机制。Phidata的检索机制可以为我们提供有力的支持,使得AI助手能够在需要时快速检索出相关信息。

  3. 结合实际应用场景进行优化:在构建RAG AI助手时,我们需要结合实际应用场景进行优化。例如,可以针对特定领域的数据进行训练,提升AI助手在该领域的性能。此外,还可以通过调整模型参数、优化算法等方式来进一步提升AI助手的性能。

总之,Phidata的成功登顶GitHub并非偶然,其背后的技术原理和优势使得RAG AI助手的构建变得简单高效。通过深入了解Phidata的技术原理并结合实际应用场景进行优化,我们可以轻松地构建出具有强大功能的RAG AI助手,为我们的日常生活和工作带来便利




53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询