微信扫码
与创始人交个朋友
我要投稿
人工智能(AI)聊天机器人常常在记忆方面遇到困难,无论是在不同的对话之间,还是在同一对话中。然而,一个开源框架可能会改变这一现状。
如果你与像OpenAI的ChatGPT这样的大型语言模型进行长时间的对话,它会开始忘记重要细节,尤其是当对话超过400万字时。这时,它的表现会迅速变差。
例如,医疗AI助手使用过去对话中的信息来帮助做出准确的临床诊断。因此,如果大型语言模型无法记住长期细节,它们可能会错过重要的疾病症状,从而做出不够准确的诊断。
为了解决AI模型缺乏长期记忆和个性化能力的问题,我介绍了Mem0。它适用于需要长期记忆和上下文保留的AI应用程序,如聊天机器人和智能助手。
在这个故事中,我将提供一个易于理解的Mem0概述,介绍Mem0的独特之处,Mem0与Rag的不同之处,甚至如何构建一个实际的应用程序。
Mem0 是一个开源项目,旨在为大型语言模型(LLMs)设计一个创新的内存层,以增强各种应用中的个性化 AI 体验,使 AI 聊天机器人能够记住用户偏好和先前交互的上下文,从而使 AI 交互随着时间的推移变得更加相关和吸引人,并使全球的开发者和用户更容易使用复杂的 AI 工具。
Mem0 的内存层使用先进的算法,如 GPT-4,以及高效的数据结构,如向量数据库,快速存储和检索信息。
Mem0 是一个尖端的长期记忆解决方案,适用于大型语言模型(LLMs),使个性化能够贯穿整个 GenAI 堆栈,允许 LLM 回忆过去的交互,并提供根据每个用户变化的定制响应。
简单来说,Mem0 为大型语言模型提供了一个智能的、自我改进的记忆层,使得在各类应用中能够实现个性化的 AI 体验。主要特点包括:
自我改进的记忆:系统从用户互动中学习,并随着时间的推移不断改进。
跨平台一致性:在不同的 AI 平台和应用中提供一致的体验。
集中式记忆管理:通过 API,轻松存储和管理不同类型的记忆(长期、短期、语义和情节),适用于个人用户、代理和会话。
Mem0 是 RAG 发展的下一步,具有以下关键区别:
实体关系:Mem0 理解并连接不同交互中的实体,而 RAG 仅从静态文档中检索信息。这使得 Mem0 对上下文和关系有更深刻的理解。
相关性与衰减:Mem0 优先考虑最近的交互,并逐渐遗忘过时的信息,确保响应的准确性和时效性。
上下文连续性:Mem0 在多个会话中保留信息,保持对话的连续性,这对于长期参与至关重要,例如虚拟伴侣或个性化学习助手。
自适应学习:Mem0 根据用户的交互和反馈改善个性化,使记忆随着时间的推移变得更加准确和相关。
动态更新:Mem0 可以根据新的信息和交互更新其记忆,而 RAG 则依赖于静态数据。这允许实时调整和改进,增强用户体验。
这些先进的记忆功能使 Mem0 成为开发人员创建个性化和上下文感知 AI 应用程序的强大工具。
要使用 Mem0,您首先需要安装必要的 Python 包。具体来说,安装 Mem0 和 openai。这些包是充分利用 Mem0 功能所必需的。
pip install mem0ai , openai
Mem0 的强大不仅体现在其简单的 API,还体现在其灵活的配置选项上。让我们看看如何进行高级配置:
import os
from mem0 import Memory
os.environ["OPENAI_API_KEY"] = "your_api_key"
os.environ["OPENAI_BASE_URL"] = "your_base_url"
config = {
"llm": {
"provider": "openai",
"config": {
"model": "gpt-4o-mini",
"temperature": 0.2,
"max_tokens": 1500,
}
},
"history_db_path": "history.db"
}
m = Memory.from_config(config)
此配置代码演示了 Mem0 的几个关键特性:
灵活的 LLM 集成:Mem0 可以与不同的 LLM 提供商集成,这里我们使用 OpenAI 的 GPT-4o-mini。
自定义模型参数:您可以根据需要调整模型参数,例如温度和 max_tokens。
本地历史存储:通过指定 history_db_path
,Mem0 可以在本地数据库中保存历史记录,确保数据的持久性和隐私。
result = m.add("I am working on improving my tennis skills.
Suggest some online courses.", user_id="alice",
metadata={"category": "hobbies"})
all_memories = m.get_all()
# print(all_memories)
memory_id = all_memories[0]["id"]
specific_memory = m.get(memory_id)
related_memories = m.search(query="What are Alice's hobbies?", user_id="alice")
Mem0的记忆系统可以存储简单的文本信息,并通过元数据添加上下文信息,从而使检索更加准确和有意义。
result = m.update(memory_id=memory_id, data="Likes to play tennis on weekends")
history = m.history(memory_id=memory_id)
Mem0 不仅允许内存更新,还保留内存的历史版本。这个功能对于理解用户偏好的变化或跟踪 AI 系统的决策过程至关重要。
m.delete(memory_id=memory_id)
m.delete_all(user_id="alice")
m.reset()
Mem0 提供了细粒度的内存管理功能,可以删除单个内存、清除特定用户的所有内存,甚至重置整个系统。这为开发者提供了极大的灵活性,特别是在处理隐私敏感数据时。
我们使用Mem0创建个性化的客户服务助手AI代理。客户支持AI代理利用Mem0在互动过程中保留信息,从而提供个性化和高效的支持体验。
我们创建一个客户支持 AI 代理的实例,以设置内存和 OpenAI,然后我们使用 OpenAI 和内存数据库的参数设置配置,它使用给定的配置创建一个内存对象。
class CustomerSupportAIAgent:
def __init__(self):
"""
Initialize CustomerSupportAIAgent, configure memory and OpenAI client.
"""
config = {
"llm": {
"provider": "openai",
"config": {
"model": "gpt-4o-mini",
"temperature": 0.2,
"max_tokens": 1500,
}
},
"history_db_path": "history.db"
}
self.memory = Memory.from_config(config)
self.client = OpenAI()
self.app_id = "customer-support"
def handle_query(self, query, user_id=None):
"""
处理客户查询并将相关信息存储在内存中。
:param query: 要处理的客户查询。
:param user_id: 可选的用户 ID,用于与内存关联。
"""
# 向 AI 发送流式聊天完成请求
stream = self.client.chat.completions.create(
model="gpt-4",
stream=True,
messages=[
{"role": "system", "content": "You are a customer support
AI agent."},
{"role": "user", "content": query}
]
)
# 将查询存储在内存中
self.memory.add(query, user_id=user_id, metadata={"app_id":
self.app_id})
# 实时打印 AI 的响应
for chunk in stream:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="")
def get_memories(self, user_id=None):
"""
Retrieve all memories associated with a given customer ID.
:param user_id: Optional user ID to filter memories.
:return: List of memories.
"""
return self.memory.get_all(user_id=user_id)
您可以随时使用以下代码获取所有记忆:
memories = support_agent.get_memories(user_id=customer_id)
for m in memories:
print(m['text'])
初始化:CustomerSupportAIAgent 类使用必要的内存配置和 OpenAI 客户端设置进行初始化。
处理查询:handle_query 方法将查询发送给 AI,并将相关信息存储在内存中。
获取记忆:get_memories 方法获取与客户相关的所有存储记忆。
from openai import OpenAI
from mem0 import Memory
import os
# Set OpenAI API key
os.environ["OPENAI_API_KEY"] = "Your_api"
os.environ["OPENAI_BASE_URL"] = "https://api.openai.com/v1"
class CustomerSupportAIAgent:
def __init__(self):
"""
Initialize CustomerSupportAIAgent, configure memory and OpenAI client.
"""tomer
config = {
"llm": {
"provider": "openai",
"config": {
"model": "gpt-4o-mini",
"temperature": 0.2,
"max_tokens": 1500,
}
},
"history_db_path": "history.db"
}
self.memory = Memory.from_config(config)
self.client = OpenAI()
self.app_id = "customer-support"
def handle_query(self, query, user_id=None):
"""
Handle customer query and store related information in memory.
:param query: The customer query to process.
:param user_id: Optional user ID to associate with memory.
"""
# Send a streaming chat completion request to AI
stream = self.client.chat.completions.create(
model="gpt-4",
stream=True,
messages=[
{"role": "system", "content": "You are a customer
support AI agent."},
{"role": "user", "content": query}
]
)
# Store the query in memory
self.memory.add(query, user_id=user_id, metadata={"app_id": self.app_id})
# Print AI's response in real-time
for chunk in stream:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="")
def get_memories(self, user_id=None):
"""
Retrieve all memories associated with a given customer ID.
:param user_id: Optional user ID to filter memories.
:return: List of memories.
"""
return self.memory.get_all(user_id=user_id)
# Instantiate CustomerSupportAIAgent
support_agent = CustomerSupportAIAgent()
# Define a customer ID
customer_id = "learning-AI-from-scratch"
# Handle customer query
support_agent.handle_query("I need help with my recent order. It hasn't arrived yet.", user_id=customer_id)
memories = support_agent.get_memories(user_id=customer_id)
for m in memories:
print(m['text'])
import os
from mem0 import Memory
os.environ["OPENAI_API_KEY"] = ""
os.environ["OPENAI_BASE_URL"] = "https://api.openai.com/v1"
config = {
"llm": {
"provider": "openai",
"config": {
"model": "gpt-4o-mini",
"temperature": 0.2,
"max_tokens": 1500,
}
},
"history_db_path": "history.db"
}
m = Memory.from_config(config)
result = m.add("I am working on improving my tennis skills. Suggest
some online courses.", user_id="alice", metadata={"category": "hobbies"})
# Created memory --> 'Improving her tennis skills.' and 'Looking for online suggestions.'
# print(result)
all_memories = m.get_all()
# print(all_memories)
memory_id = all_memories[0]["id"]
specific_memory = m.get(memory_id)
related_memories = m.search(query="What are Alice's hobbies?", user_id="alice")
result = m.update(memory_id=memory_id, data="Likes to play tennis on weekends")
history = m.history(memory_id=memory_id)
m.delete(memory_id=memory_id)
m.delete_all(user_id="alice")
m.reset()
Mem0 为 AI 应用开发提供了强大而灵活的内存系统。通过合理的配置和创新的应用,开发者可以构建具有持久内存、上下文理解和情感智能的 AI 系统。这不仅改善了用户体验,还为 AI 应用开辟了新的可能性。
随着 AI 技术的不断发展,像 Mem0 这样的智能内存系统将成为构建下一代 AI 应用的关键组成部分。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-25
RAG搭建中,如何选择最合适的向量索引?
2024-11-25
RAG的2024—随需而变,从狂热到理性(下)
2024-11-25
RAG的2024—随需而变,从狂热到理性(下)
2024-11-25
糟糕!LLM输出半截Json的答案,还有救吗!
2024-11-24
解读GraphRAG
2024-11-24
RAGChecker:显著超越RAGAS,一个精细化评估和诊断 RAG 系统的创新框架
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-25
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21