AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


如何构建具有长期个性化记忆的代理
发布日期:2024-08-28 08:07:30 浏览次数: 1667



人工智能(AI)聊天机器人常常在记忆方面遇到困难,无论是在不同的对话之间,还是在同一对话中。然而,一个开源框架可能会改变这一现状。

如果你与像OpenAI的ChatGPT这样的大型语言模型进行长时间的对话,它会开始忘记重要细节,尤其是当对话超过400万字时。这时,它的表现会迅速变差。

例如,医疗AI助手使用过去对话中的信息来帮助做出准确的临床诊断。因此,如果大型语言模型无法记住长期细节,它们可能会错过重要的疾病症状,从而做出不够准确的诊断。

为了解决AI模型缺乏长期记忆和个性化能力的问题,我介绍了Mem0。它适用于需要长期记忆和上下文保留的AI应用程序,如聊天机器人和智能助手。

在这个故事中,我将提供一个易于理解的Mem0概述,介绍Mem0的独特之处,Mem0与Rag的不同之处,甚至如何构建一个实际的应用程序。

什么是 Mem0?

Mem0 是一个开源项目,旨在为大型语言模型(LLMs)设计一个创新的内存层,以增强各种应用中的个性化 AI 体验,使 AI 聊天机器人能够记住用户偏好和先前交互的上下文,从而使 AI 交互随着时间的推移变得更加相关和吸引人,并使全球的开发者和用户更容易使用复杂的 AI 工具。

Mem0 的内存层使用先进的算法,如 GPT-4,以及高效的数据结构,如向量数据库,快速存储和检索信息。

Mem0 是一个尖端的长期记忆解决方案,适用于大型语言模型(LLMs),使个性化能够贯穿整个 GenAI 堆栈,允许 LLM 回忆过去的交互,并提供根据每个用户变化的定制响应。

Mem0 的独特之处

简单来说,Mem0 为大型语言模型提供了一个智能的、自我改进的记忆层,使得在各类应用中能够实现个性化的 AI 体验。主要特点包括:

  1. 自我改进的记忆:系统从用户互动中学习,并随着时间的推移不断改进。

  2. 跨平台一致性:在不同的 AI 平台和应用中提供一致的体验。

  3. 集中式记忆管理:通过 API,轻松存储和管理不同类型的记忆(长期、短期、语义和情节),适用于个人用户、代理和会话。

RAG 与 Mem0

Mem0 是 RAG 发展的下一步,具有以下关键区别:

  1. 实体关系:Mem0 理解并连接不同交互中的实体,而 RAG 仅从静态文档中检索信息。这使得 Mem0 对上下文和关系有更深刻的理解。

  2. 相关性与衰减:Mem0 优先考虑最近的交互,并逐渐遗忘过时的信息,确保响应的准确性和时效性。

  3. 上下文连续性:Mem0 在多个会话中保留信息,保持对话的连续性,这对于长期参与至关重要,例如虚拟伴侣或个性化学习助手。

  4. 自适应学习:Mem0 根据用户的交互和反馈改善个性化,使记忆随着时间的推移变得更加准确和相关。

  5. 动态更新:Mem0 可以根据新的信息和交互更新其记忆,而 RAG 则依赖于静态数据。这允许实时调整和改进,增强用户体验。

这些先进的记忆功能使 Mem0 成为开发人员创建个性化和上下文感知 AI 应用程序的强大工具。

如何初始化 Mem0

要使用 Mem0,您首先需要安装必要的 Python 包。具体来说,安装 Mem0 和 openai。这些包是充分利用 Mem0 功能所必需的。

pip install mem0ai , openai

Mem0 的强大不仅体现在其简单的 API,还体现在其灵活的配置选项上。让我们看看如何进行高级配置:

import os
from mem0 import Memory

os.environ["OPENAI_API_KEY"] = "your_api_key"
os.environ["OPENAI_BASE_URL"] = "your_base_url"

config = {
"llm": {
"provider": "openai",
"config": {
"model": "gpt-4o-mini",
"temperature": 0.2,
"max_tokens": 1500,
}
},
"history_db_path": "history.db"
}

m = Memory.from_config(config)

此配置代码演示了 Mem0 的几个关键特性:

  1. 灵活的 LLM 集成:Mem0 可以与不同的 LLM 提供商集成,这里我们使用 OpenAI 的 GPT-4o-mini。

  2. 自定义模型参数:您可以根据需要调整模型参数,例如温度和 max_tokens。

  3. 本地历史存储:通过指定 history_db_path,Mem0 可以在本地数据库中保存历史记录,确保数据的持久性和隐私。

记忆存储与检索

result = m.add("I am working on improving my tennis skills. 
Suggest some online courses."
, user_id="alice",
metadata={"category": "hobbies"})

all_memories = m.get_all()

# print(all_memories)

memory_id = all_memories[0]["id"]

specific_memory = m.get(memory_id)


related_memories = m.search(query="What are Alice's hobbies?", user_id="alice")

Mem0的记忆系统可以存储简单的文本信息,并通过元数据添加上下文信息,从而使检索更加准确和有意义。

内存更新与历史跟踪

result = m.update(memory_id=memory_id, data="Likes to play tennis on weekends")

history = m.history(memory_id=memory_id)

Mem0 不仅允许内存更新,还保留内存的历史版本。这个功能对于理解用户偏好的变化或跟踪 AI 系统的决策过程至关重要。

内存管理

m.delete(memory_id=memory_id)
m.delete_all(user_id="alice")
m.reset()

Mem0 提供了细粒度的内存管理功能,可以删除单个内存、清除特定用户的所有内存,甚至重置整个系统。这为开发者提供了极大的灵活性,特别是在处理隐私敏感数据时。

案例演示:AI代理助手

我们使用Mem0创建个性化的客户服务助手AI代理。客户支持AI代理利用Mem0在互动过程中保留信息,从而提供个性化和高效的支持体验。

配置:

我们创建一个客户支持 AI 代理的实例,以设置内存和 OpenAI,然后我们使用 OpenAI 和内存数据库的参数设置配置,它使用给定的配置创建一个内存对象。

class CustomerSupportAIAgent:
def __init__(self):
"""
Initialize CustomerSupportAIAgent, configure memory and OpenAI client.
"""

config = {
"llm": {
"provider": "openai",
"config": {
"model": "gpt-4o-mini",
"temperature": 0.2,
"max_tokens": 1500,
}
},
"history_db_path": "history.db"
}
self.memory = Memory.from_config(config)
self.client = OpenAI()
self.app_id = "customer-support"

处理查询:

def handle_query(self, query, user_id=None):
"""
处理客户查询并将相关信息存储在内存中。

:param query: 要处理的客户查询。
:param user_id: 可选的用户 ID,用于与内存关联。
"""

# 向 AI 发送流式聊天完成请求
stream = self.client.chat.completions.create(
model="gpt-4",
stream=True,
messages=[
{"role": "system", "content": "You are a customer support
AI agent."
},
{"role": "user", "content": query}
]
)
# 将查询存储在内存中
self.memory.add(query, user_id=user_id, metadata={"app_id":
self.app_id})

# 实时打印 AI 的响应
for chunk in stream:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="")

获取记忆

 def get_memories(self, user_id=None):
"""
Retrieve all memories associated with a given customer ID.

:param user_id: Optional user ID to filter memories.
:return: List of memories.
"""

return self.memory.get_all(user_id=user_id)

您可以随时使用以下代码获取所有记忆:

memories = support_agent.get_memories(user_id=customer_id)
for m in memories:
print(m['text'])

关键点

  • 初始化:CustomerSupportAIAgent 类使用必要的内存配置和 OpenAI 客户端设置进行初始化。

  • 处理查询:handle_query 方法将查询发送给 AI,并将相关信息存储在内存中。

  • 获取记忆:get_memories 方法获取与客户相关的所有存储记忆。

from openai import OpenAI
from mem0 import Memory
import os

# Set OpenAI API key
os.environ["OPENAI_API_KEY"] = "Your_api"
os.environ["OPENAI_BASE_URL"] = "https://api.openai.com/v1"

class CustomerSupportAIAgent:
def __init__(self):
"""
Initialize CustomerSupportAIAgent, configure memory and OpenAI client.
"""
tomer
config = {
"llm": {
"provider": "openai",
"config": {
"model": "gpt-4o-mini",
"temperature": 0.2,
"max_tokens": 1500,
}
},
"history_db_path": "history.db"
}
self.memory = Memory.from_config(config)
self.client = OpenAI()
self.app_id = "customer-support"

def handle_query(self, query, user_id=None):
"""
Handle customer query and store related information in memory.

:param query: The customer query to process.
:param user_id: Optional user ID to associate with memory.
"""

# Send a streaming chat completion request to AI
stream = self.client.chat.completions.create(
model="gpt-4",
stream=True,
messages=[
{"role": "system", "content": "You are a customer
support AI agent."
},
{"role": "user", "content": query}
]
)
# Store the query in memory
self.memory.add(query, user_id=user_id, metadata={"app_id": self.app_id})

# Print AI's response in real-time
for chunk in stream:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="")

def get_memories(self, user_id=None):
"""
Retrieve all memories associated with a given customer ID.

:param user_id: Optional user ID to filter memories.
:return: List of memories.
"""

return self.memory.get_all(user_id=user_id)

# Instantiate CustomerSupportAIAgent
support_agent = CustomerSupportAIAgent()

# Define a customer ID
customer_id = "learning-AI-from-scratch"

# Handle customer query
support_agent.handle_query("I need help with my recent order. It hasn't arrived yet.", user_id=customer_id)

memories = support_agent.get_memories(user_id=customer_id)
for m in memories:
print(m['text'])
import os
from mem0 import Memory

os.environ["OPENAI_API_KEY"] = ""
os.environ["OPENAI_BASE_URL"] = "https://api.openai.com/v1"

config = {
"llm": {
"provider": "openai",
"config": {
"model": "gpt-4o-mini",
"temperature": 0.2,
"max_tokens": 1500,
}
},
"history_db_path": "history.db"
}

m = Memory.from_config(config)

result = m.add("I am working on improving my tennis skills. Suggest
some online courses."
, user_id="alice", metadata={"category": "hobbies"})

# Created memory --> 'Improving her tennis skills.' and 'Looking for online suggestions.'
# print(result)


all_memories = m.get_all()

# print(all_memories)

memory_id = all_memories[0]["id"]

specific_memory = m.get(memory_id)


related_memories = m.search(query="What are Alice's hobbies?", user_id="alice")


result = m.update(memory_id=memory_id, data="Likes to play tennis on weekends")

history = m.history(memory_id=memory_id)


m.delete(memory_id=memory_id)
m.delete_all(user_id="alice")
m.reset()

结论

Mem0 为 AI 应用开发提供了强大而灵活的内存系统。通过合理的配置和创新的应用,开发者可以构建具有持久内存、上下文理解和情感智能的 AI 系统。这不仅改善了用户体验,还为 AI 应用开辟了新的可能性。

随着 AI 技术的不断发展,像 Mem0 这样的智能内存系统将成为构建下一代 AI 应用的关键组成部分。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询