AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


18.5K+ Star!Tabby:一个为开发者设计的 开源AI 编码助手,通过自托管的方式,帮助开发者提高编码效率
发布日期:2024-08-22 12:43:11 浏览次数: 1834 来源:AIGC创想者



项目简介

Tabby[1] 是一个为开发者设计的 AI 编码助手,它能够通过自我托管的方式,帮助开发者提高编码效率。

Tabby 通过集成到现有的开发环境中,提供代码补全、代码理解和其他编码辅助功能。

项目特点

主要特点

  • 自包含:不需要数据库管理系统或云服务。
  • OpenAPI 接口:易于与现有基础设施(例如云 IDE)集成。
  • 支持消费级 GPU:能够利用 GPU 加速编码辅助功能。

使用场景

Tabby 适用于希望在本地或私有云环境中使用 AI 编码助手的开发者和团队。

它可以集成到各种 IDE 或编辑器中,提供智能代码补全、代码审查、自动生成代码片段等功能。

使用方法

安装配置

  1. 安装:可以通过 Docker 快速启动 Tabby 服务,或者根据官方文档[2]进行更详细的安装配置。
  2. IDE/编辑器扩展:Tabby 支持多种 IDE 和编辑器的插件,如 VSCode、Vim、IntelliJ 等。
  3. 配置:根据需要配置 Tabby,包括模型选择、设备使用(如 GPU)、并行处理等。
  4. 运行:启动 Tabby 服务后,可以在 IDE 中使用其提供的功能。

快速启动示例

使用 Docker 启动 Tabby 服务的命令示例:

docker run -it \
  --gpus all -p 8080:8080 -v $HOME/.tabby:/data \
  tabbyml/tabby \
  serve --model TabbyML/StarCoder-1B --device cuda
  • 这里 --gpus all 表示使用所有可用的 GPU,-p 8080:8080 将容器的 8080 端口映射到宿主机的 8080 端口,-v $HOME/.tabby:/data 将宿主机的 .tabby 目录挂载到容器的 /data 目录,用于数据持久化。
  • 这将启动 Tabby 服务,并使用指定的模型和设备。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询