AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


值得期待!DB-GPT v0.5.6 版本发布
发布日期:2024-05-17 14:39:08 浏览次数: 1826




 新特性 



?  DB-GPT 支持 Graph RAG 框架, 实现 TuGraph 上的知识图谱构建与检索
使用步骤:
  • 安装 TuGraph
docker pull tugraph/tugraph-runtime-centos7:latest
mkdir -p /tmp/tugraph/data && mkdir -p /tmp/tugraph/log && \docker run -it -d -p 7001:7001 -p 7070:7070 -p 7687:7687 -p 8000:8000 -p 8888:8888 -p 8889:8889 -p 9090:9090 \ -v /tmp/tugraph/data:/var/lib/lgraph/data-v /tmp/tugraph/log:/var/log/lgraph_log \ --name tugraph_demo tugraph/tugraph-runtime-centos7:latest /bin/bash && \docker exec -d tugraph_demo bash /setup.sh
pip install "neo4j>=5.20.0"
在 .env设置 TuGraph配置
GRAPH_STORE_TYPE=TuGraphTUGRAPH_HOST=127.0.0.1TUGRAPH_PORT=7687TUGRAPH_USERNAME=adminTUGRAPH_PASSWORD=xxx
  • 使用知识图谱创建知识空间
  • 构建成功后显示知识图谱关系
  • 使用知识图谱进行问答
更多教程:https://docs.dbgpt.site/docs/latest/cookbook/rag/graph_rag_app_develop

DB-GPT  支持 ollama 部署本地模型服务
使用步骤:
1. 安装 ollama https://ollama.com/
2. 拉取模型
ollama pull qwen:0.5b
3. 拉取 embedding 模型
ollama pull nomic-embed-text
4. 安装 python-ollama
pip install ollama
5. 在 .env 配置环境
LLM_MODEL=ollama_proxyllmPROXY_SERVER_URL=http://127.0.0.1:11434PROXYLLM_BACKEND="qwen:0.5b"PROXY_API_KEY=not_usedEMBEDDING_MODEL=proxy_ollamaproxy_ollama_proxy_server_url=http://127.0.0.1:11434proxy_ollama_proxy_backend="nomic-embed-text:latest"
6. 启动服务
python dbgpt/app/dbgpt_server.py

Agent 模块重构
  • Agent 核心模块重构
    • 根据论文 《A survey on large language model based autonomous agents》 [1] 将 Agent 模块代码重构为四个核心模块



    • 更灵活的Profile模块实现,支持从环境变量、数据库和其他实现创建 agent profiles
    • 支持多种 memory 模式sensory memory, short-term memory, long-term memory and hybrid memory
  • Agent Resource模块重构
    • 将插件模块和资源模块重构为统一的资源模块
    • Agent中有多种Resource类型,包括database, knowledge, tool, pack等。另外,资源的集合是一种特殊类型的资源,称为Resource Pack
    • 支持从dbgpts中安装资源,例如使用下面命令安装一个简单计算器工具dbgpt app install simple-calculator-example -U
参考代码示例: examples/agents

ChatKnowledge支持 rerank模型,同时支持将 rerank模型发布成服务

下载模型并在在.env文件设置模型参数并重启服务
## Rerank modelRERANK_MODEL=bge-reranker-base## If you not set RERANK_MODEL_PATH, DB-GPT will read the model path from EMBEDDING_MODEL_CONFIG based on the RERANK_MODEL.# RERANK_MODEL_PATH=## The number of rerank results to returnRERANK_TOP_K=3
将 rerank 模型发布成服务
dbgpt start controller --port 8000
dbgpt start worker --worker_type text2vec \--rerank \--model_path /app/models/bge-reranker-base \--model_name bge-reranker-base \--port 8004 \--controller_addr http://127.0.0.1:8000


LLM_MODEL=deepseek_proxyllmDEEPSEEK_MODEL_VERSION=deepseek-chatDEEPSEEK_API_BASE=https://api.deepseek.com/v1DEEPSEEK_API_KEY={your-deepseek-api-key}
test_proxyllm.py DeepseekLLMClient
import asynciofrom dbgpt.core import ModelRequestfrom dbgpt.model.proxy import DeepseekLLMClient# You should set DEEPSEEK_API_KEY to your environment variablesclient = DeepseekLLMClient()print(asyncio.run(client.generate(ModelRequest._build("deepseek-chat", "你是谁?"))))
DEEPSEEK_API_KEY={your-deepseek-api-key} python test_proxyllm.py


?  支持 Yi-1.5 LLM
.env
# [Yi-1.5-34B-Chat](https://huggingface.co/01-ai/Yi-1.5-34B-Chat)LLM_MODEL=yi-1.5-6b-chat# [Yi-1.5-9B-Chat](https://huggingface.co/01-ai/Yi-1.5-9B-Chat)LLM_MODEL=yi-1.5-9b-chat# [Yi-1.5-6B-Chat](https://huggingface.co/01-ai/Yi-1.5-6B-Chat)LLM_MODEL=yi-1.5-34b-chat
? 重构Chroma向量数据库模块
支持Elasticsearch作为向量数据库
?  ChatKnowledge支持 Excel



 Bug 修复 



  • 修复在EmbeddingRetriever使用CrossEncoderRanker 问题
  • 修复 app pydantic error
  • 支持 milvus autoflush 特性,  替换掉手动 flush


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询