微信扫码
与创始人交个朋友
我要投稿
地址:https://github.com/lm-sys/FastChat
pip安装包
源码安装
pip安装包
pip3 install "fschat[model_worker,webui]"
pip3 install "fschat[all]"
源码安装
git clone https://github.com/lm-sys/FastChat.gitcd FastChat
pip3 install --upgrade pip# enable PEP 660 supportpip3 install -e ".[model_worker,webui]"
命令行
API
Web GUI
FastChat可以通过命令行的方式部署大模型,同时还支持GPU、CPU、
单GPU部署命令:
python3 -m fastchat.serve.cli --model-path xxx
如果你需要实现多GPU部署,你可以通过--num-gpus参数指定数量:
python3 -m fastchat.serve.cli --model-path xxx --num-gpus 2
同时还可以通过参数--max-gpu-memory限制单个GPU使用的内存大小,
python3 -m fastchat.serve.cli --model-path xxx --num-gpus 2 --max-gpu-memory 8GiB
python3 -m fastchat.serve.cli --model-path xxx --device cpu
python3 -m fastchat.serve.controller
pip install vllm
python3 -m fastchat.serve.vllm_worker --model-path xxx
CUDA_VISIBLE_DEVICES=0,1 python3 -m fastchat.serve.vllm_worker --model-path xxx --controller-address http://localhost:21001 --port 31000 --worker-address http://localhost:31000 --num-gpus 2
CUDA_VISIBLE_DEVICES=2,3 python3 -m fastchat.serve.vllm_worker --model-path xxx --controller-address http://localhost:21001 --port 31001 --worker-address http://localhost:31001 --num-gpus 2
CUDA_VISIBLE_DEVICES=4,5 python3 -m fastchat.serve.vllm_worker --model-path yyy --controller-address http://localhost:21001 --port 31001 --worker-address http://localhost:31001 --num-gpus 2
python3 -m fastchat.serve.openai_api_server --host localhost --port 8000
import openai
openai.api_key = "EMPTY"
openai.base_url = "http://localhost:8000/v1/"
model = "vicuna-7b-v1.5"
prompt = "Once upon a time"
# create a completion
completion = openai.completions.create(model=model, prompt=prompt, max_tokens=64)
# print the completion
print(prompt + completion.choices[0].text)
# create a chat completion
completion = openai.chat.completions.create(
model=model,
messages=[{"role": "user", "content": "Hello! What is your name?"}]
)
# print the completion
print(completion.choices[0].message.content)
curl http://localhost:8000/v1/chat/completions \-H "Content-Type: application/json" \-d '{"model": "vicuna-7b-v1.5","messages": [{"role": "user", "content": "Hello! What is your name?"}]}'
python3 -m fastchat.serve.controller
和API部署方式一样,这里采用vllm方式部署大模型。
pip install vllm
python3 -m fastchat.serve.vllm_worker --model-path xxx
python3 -m fastchat.serve.gradio_web_server
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-10-30
扔掉 Google 翻译!这个超强 AI 翻译工作流才是你的最佳选择
2024-09-12
FastGPT一站式解决方案[1-部署篇]:轻松实现RAG-智能问答系统
2024-09-07
FastGPT 正式接入 Flux,准备好迎接 AI 绘画的狂风了么?
2024-08-24
简洁优雅知识库 FastGPT 快速部署
2024-08-22
FastGPT:利用大模型重新定义传统知识库
2024-08-13
定制你的AI梦!快速搭建属于自己的本地FastGPT
2024-08-03
Ollama 0.3.1-0.3.3 版本已推出
2024-07-26
AI知识库这事儿FastGPT是专业的
2024-04-23
2024-05-09
2024-05-08
2024-05-08
2024-06-03
2024-05-09
2024-04-24
2024-06-20
2024-05-01
2024-07-26