微信扫码
与创始人交个朋友
我要投稿
⭐️ Phidata:https://git.new/phidata
Phidata 是一个用于构建自主助手(也称为代理)的框架,这些助手具有长期记忆、上下文知识并能通过功能调用执行操作。
推荐一个油管博主WorldofAl的教程视频:
问题: 大型语言模型(LLMs)上下文有限,无法执行操作。
解决方案: 增加记忆、知识和工具。
• 记忆: 将聊天记录存储在数据库中,使 LLMs 能进行长期对话。
• 知识: 将信息存储在向量数据库中,为 LLMs 提供业务上下文。
• 工具: 使 LLMs 能执行操作,例如从 API 拉取数据、发送电子邮件或查询数据库。
• 支持的大模型: 支持众多主流的LLM提供商
• 步骤 1: 创建一个 Assistant
• 步骤 2: 添加工具(functions)、知识(vectordb)和存储(database)
• 步骤 3: 使用 Streamlit、FastApi 或 Django 提供服务以构建您的 AI 应用程序
工具是助手可以运行来完成搜索网络、运行 SQL、发送电子邮件、调用 API 等任务的功能。
知识库是助手可以搜索以改进其响应的信息数据库。此信息存储在矢量数据库中,并为 LLMs 提供业务上下文,这使它们以上下文感知的方式做出响应。
向量数据库使我们能够将信息存储为嵌入并搜索与我们的输入查询“相似的结果”。然后将这些结果作为上下文提供给 LLM,以便它可以使用检索增强生成 (RAG) 以上下文感知的方式进行响应。
助手展示如何使用 LLMs 进行函数调用。该助手可以访问一个函数 get_top_hackernews_stories ,它可以调用该函数来获取黑客新闻的头条新闻。
下面提供官方的文档介绍、相关资源、部署教程等,进一步支撑你的行动,以提升本文的帮助力。
pip install -U phidata
创建一个文件 assistant.py
from phi.assistant import Assistant
from phi.tools.duckduckgo import DuckDuckGo
assistant = Assistant(tools=[DuckDuckGo()], show_tool_calls=True)
assistant.print_response("法国发生了什么事?", markdown=True)
安装库,导出您的 OPENAI_API_KEY
并运行 Assistant
pip install openai duckduckgo-search
export OPENAI_API_KEY=sk-xxxx
python assistant.py
• 阅读文档:docs.phidata.com
• 在 discord 与我们聊天
• LLM OS: 使用 LLMs 作为新兴操作系统的 CPU。
• Autonomous RAG: 为 LLMs 提供工具,以搜索其知识、网络或聊天记录。
• Local RAG: 使用 Ollama 和 PgVector 的完全本地 RAG。
• Investment Researcher: 使用 Llama3 和 Groq 生成股票投资报告。
• News Articles: 使用 Llama3 和 Groq 撰写新闻文章。
• Video Summaries: 使用 Llama3 和 Groq 的 YouTube 视频摘要。
• Research Assistant: 使用 Llama3 和 Groq 撰写研究报告。
PythonAssistant
可以通过编写和运行 Python 代码完成任务。
• 创建文件 python_assistant.py
from phi.assistant.python import PythonAssistant
from phi.file.local.csv import CsvFile
python_assistant = PythonAssistant(
files=[
CsvFile(
path="https://phidata-public.s3.amazonaws.com/demo_data/IMDB-Movie-Data.csv",
description="包含关于 IMDB 电影的信息。",
)
],
pip_install=True,
show_tool_calls=True,
)
python_assistant.print_response("电影的平均评分是多少?", markdown=True)
• 安装 pandas 并运行 python_assistant.py
pip install pandas
python python_assistant.py
DuckDbAssistant
可以使用 SQL 进行数据分析。
• 创建文件 data_assistant.py
import json
from phi.assistant.duckdb import DuckDbAssistant
duckdb_assistant = DuckDbAssistant(
semantic_model=json.dumps({
"tables": [
{
"name": "movies",
"description": "包含关于 IMDB 电影的信息。",
"path": "https://phidata-public.s3.amazonaws.com/demo_data/IMDB-Movie-Data.csv",
}
]
}),
)
duckdb_assistant.print_response("电影的平均评分是多少?给我看看 SQL。", markdown=True)
• 安装 duckdb 并运行 data_assistant.py
pip install duckdb
python data_assistant.py
我们最喜欢的 LLM 功能之一是从文本生成结构化数据(即 Pydantic 模型)。使用此功能提取特征、生成电影剧本、生成假数据等。
让我们创建一个电影助手为我们编写一个 MovieScript
。
• 创建文件 movie_assistant.py
from typing import List
from pydantic import BaseModel, Field
from rich.pretty import pprint
from phi.assistant import Assistant
class MovieScript(BaseModel):
setting: str = Field(..., description="为大片提供一个不错的场景。")
ending: str = Field(..., description="电影的结尾。如果不可用,请提供一个快乐的结局。")
genre: str = Field(..., description="电影的类型。如果不可用,请选择动作、惊悚或浪漫喜剧。")
name: str = Field(..., description="给这部电影取一个名字")
characters: List[str] = Field(..., description="这部电影的角色名称。")
storyline: str = Field(..., description="电影的 3 句故事情节。让它变得激动人心!")
movie_assistant = Assistant(
description="你帮助编写电影剧本。",
output_model=MovieScript,
)
pprint(movie_assistant.run("纽约"))
• 运行 movie_assistant.py
文件
python movie_assistant.py
• 输出是 MovieScript
类的对象,如下所示:
MovieScript(
│ setting='繁华且充满活力的纽约市',
│ ending='主人公拯救了城市并与疏远的家人和解。',
│ genre='动作',
│ name='城市脉动',
│ characters=['亚历克斯·默瑟', '尼娜·卡斯蒂略', '侦探迈克·约翰逊'],
│ storyline='在纽约市的中心,前警察变成的义警亚历克斯·默瑟,与街头聪明的活动家尼娜·卡斯蒂略联手,打倒威胁要摧毁城市的腐败政治人物。他们穿越权力和欺骗的复杂网络,揭示了令人震惊的真相,将他们推到了能力的极限。在时间不多的情况下,他们必须与时间赛跑,拯救纽约并面对自己的恶魔。'
)
让我们创建一个 PDF 助手来回答来自 PDF 的问题。我们将使用 PgVector
进行知识和存储。
知识库: 助手可以搜索以改善其响应的信息(使用向量数据库)。
存储: 为助手提供长期记忆(使用数据库)。
1. 运行 PgVector
安装 docker 桌面版 并使用以下命令在端口 5532 上运行 PgVector:
docker run -d \
-e POSTGRES_DB=ai \
-e POSTGRES_USER=ai \
-e POSTGRES_PASSWORD=ai \
-e PGDATA=/var/lib/postgresql/data/pgdata \
-v pgvolume:/var/lib/postgresql/data \
-p 5532:5432 \
--name pgvector \
phidata/pgvector:16
2. 创建 PDF 助手
• 创建文件 pdf_assistant.py
import typer
from rich.prompt import Prompt
from typing import Optional, List
from phi.assistant import Assistant
from phi.storage.assistant.postgres import PgAssistantStorage
from phi.knowledge.pdf import PDFUrlKnowledgeBase
from phi.vectordb.pgvector import PgVector2
db_url = "postgresql
+psycopg://ai:ai@localhost:5532/ai"
knowledge_base = PDFUrlKnowledgeBase(
urls=["https://phi-public.s3.amazonaws.com/recipes/ThaiRecipes.pdf"],
vector_db=PgVector2(collection="recipes", db_url=db_url),
)
# 第一次运行时取消注释
knowledge_base.load()
storage = PgAssistantStorage(table_name="pdf_assistant", db_url=db_url)
def pdf_assistant(new: bool = False, user: str = "user"):
run_id: Optional[str] = None
if not new:
existing_run_ids: List[str] = storage.get_all_run_ids(user)
if len(existing_run_ids) > 0:
run_id = existing_run_ids[0]
assistant = Assistant(
run_id=run_id,
user_id=user,
knowledge_base=knowledge_base,
storage=storage,
# 在响应中显示工具调用
show_tool_calls=True,
# 使助手能够搜索知识库
search_knowledge=True,
# 使助手能够读取聊天记录
read_chat_history=True,
)
if run_id is None:
run_id = assistant.run_id
print(f"启动运行:{run_id}\n")
else:
print(f"继续运行:{run_id}\n")
# 以 cli 应用程序形式运行助手
assistant.cli_app(markdown=True)
if __name__ == "__main__":
typer.run(pdf_assistant)
3. 安装库
pip install -U pgvector pypdf "psycopg[binary]" sqlalchemy
4. 运行 PDF 助手
python pdf_assistant.py
• 问一个问题:
如何制作泰式炒河粉?
• 看助手如何搜索知识库并返回响应。
• 消息 bye
退出,再次使用 python pdf_assistant.py
启动助手并询问:
我上次的信息是什么?
看看助手现在如何在会话之间保持存储。
• 使用 --new
标志运行 pdf_assistant.py
文件以启动新运行。
python pdf_assistant.py --new
1. 阅读 基础知识 了解更多关于 phidata 的信息。
2. 阅读 助手 并了解如何定制它们。
3. 查看 cookbook 以获取深入的示例和代码。
查看使用 phidata 构建的以下 AI 应用程序:
• PDF AI 总结和回答来自 PDF 的问题。
• ArXiv AI 使用 ArXiv API 回答关于 ArXiv 论文的问题。
• HackerNews AI 总结故事、用户并分享 HackerNews 上的新动态。
知音难求,自我修炼亦艰
抓住前沿技术的机遇,与我们一起成为创新的超级个体
(把握AIGC时代的个人力量)
— 完 —
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-28
2024-04-26
2024-04-11
2024-08-21
2024-07-09
2024-08-13
2024-07-18
2024-10-25
2024-07-01
2024-06-17