微信扫码
与创始人交个朋友
我要投稿
1.Keep在线运动课程15%为AIGC生产
2.AI语音克隆创企联手AI硬件公司
3.创新奇智:发布智孔明工业大模型2.0版本
4.vivo:开放蓝心大模型应用下载
5.Adobe:推出GenStudio人工智能广告创作平台
6.Airtable AI平台推出了新的AI功能
7.开启智能新时代:2024年中国AI大模型产业发展报告
"用起一时爽,找时火葬场",很好的形容了现在工作的小伙伴们找资料时的状态,尤其是工作多年的老司机,各种方案设计,本地都可能存不下了,有的上硬盘、有的上云盘,结果就是不好找、找不到、找到的不是我想要的那个版本。那么今天给大家推荐一款开源项目:
LangChain-Chatchat
LangChain-Chatchat (原Langchain-ChatGLM) :基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型知识库项目。
虽然开源时间不久,但是势头很猛,已经斩获25.7K Star
。
开源
模型离线私有
部署。也支持 OpenAI GPT API 的调用,并将在后续持续扩充对各类模型及模型 API 的接入;实现原理如下图所示,过程包括:本地文件 -> load文本 -> 文本切分 -> 文本向量化 -> query向量化 -> 在文本向量中匹配出与query向量最相似的 top k -> 匹配出的文本作为上下文和query拼写到 prompt 中 -> 提交给 LLM -> 生成答案。
从文档处理角度来看,实现流程如下:
取决于使用的LLM,想要顺利在GPU运行本地模型的 FP16 版本,至少需要以下的硬件配置,来保证能够实现稳定连续对话
:
7B
模型14B
模型没有对 Int4 模型进行适配,不保证Int4模型能够正常运行。
Embedding 模型将会占用 1-2G 的显存。
例如,运行ChatGLM3-6B FP16 模型,显存占用13G,推荐使用16G以上内存。
三种部署方式:轻量化部署、Docker 部署、常规部署
该模式的配置方式与常规模式相同,但无需安装 torch 等重依赖,通过在线API实现 LLM 和 Ebeddings 相关功能,适合没有显卡的电脑使用。
$ pip install -r requirements_lite.txt
$ python startup.py -a --lite
该模式支持的在线 Embeddings 包括:
在 model_config.py 中 将 LLM_MODELS 和 EMBEDDING_MODEL 设置为可用的在线 API 名称即可。
docker run -d --gpus all -p 80:8501 registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.7
# 创建虚拟环境
$ source activate ~/.bashrc
$ conda create -n env_name python=3.8
$ conda activate env_name
# 更新py库
$ pip3 install --upgrade pip
# 拉取仓库
$ git clone --recursive https://github.com/chatchat-space/Langchain-Chatchat.git
$ cd Langchain-Chatchat
$ pip install -r requirements.txt
# 默认依赖包括基本运行环境(FAISS向量库)。以下是可选依赖:
- 如果要使用 milvus/pg_vector 等向量库,请将 requirements.txt 中相应依赖取消注释再安装。
- 如果要开启 OCR GPU 加速,请安装 rapidocr_paddle[gpu]
- 如果要使用在线 API 模型,请安装对用的 SDK
# 模型下载
需要先安装Git LFS,然后下载
$ git lfs install
$ git clone https://huggingface.co/THUDM/chatglm2-6b
$ git clone https://huggingface.co/moka-ai/m3e-base
# 初始化知识库
## 如果创建过知识库,执行以下命令:
$ python init_database.py --create-tables
## 如果第一次运行,未创建过知识库,执行以下命令:
$ python init_database.py --recreate-vs
# 一键启动
$ python startup.py -a
# 多卡启动
CUDA_VISIBLE_DEVICES=0,1 python startup.py -a
可选参数包括:
-a (或--all-webui),
--all-api,
--llm-api,
-c (或--controller),
--openai-api, -m (或--model-worker),
--api,
--webui,其中:
--all-webui 为一键启动 WebUI 所有依赖服务;
--all-api 为一键启动 API 所有依赖服务;
--llm-api 为一键启动 Fastchat 所有依赖的 LLM 服务;
--openai-api 为仅启动 FastChat 的 controller 和 openai-api-server 服务;
其他为单独服务启动选项。
若想指定非默认模型,需要用 --model-name 选项,示例:
$ python startup.py --all-webui --model-name Qwen-7B-Chat
# 更多信息可通过 python startup.py -h 查看。
Web UI 对话界面:
Web UI 知识库管理页面:
注意: 以上方式只是为了快速上手,如果需要更多的功能和自定义启动方式 ,请参考详细文档。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-28
2024 年 AI Agents 的发展现状
2024-11-26
红杉对话LangChain创始人:如何构建 AI 代理的编排层
2024-11-25
不到百行代码实现自然语言数据库查询:解密AI Agent的ReAct框架
2024-11-25
AI Agents 现状报告,未来可期 or 强弩之末?
2024-11-13
只需8步,手把手教你用LangGraph创建AI智能体
2024-11-13
使用 LangChain 建立一个会话式的 RAG Agent 系统
2024-11-12
一文深度了解Agent智能体以及认知架构
2024-11-12
使用LangChain建立检索增强生成(RAG)系统
2024-08-18
2024-04-08
2024-06-03
2024-04-08
2024-04-17
2024-06-24
2024-04-12
2024-04-10
2024-04-11
2024-07-01
2024-11-25
2024-10-30
2024-10-11
2024-08-18
2024-08-16
2024-08-04
2024-07-29
2024-07-28