AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


用自然语言控制电脑,字节跳动开源 UI-TARS 的桌面版应用!内附详细的安装和配置教程
发布日期:2025-01-24 07:01:31 浏览次数: 1540 来源:蚝油菜花
推荐语

这是字节跳动开源的 UI-TARS 桌面版应用,用自然语言就能控制电脑!

核心内容:
1. 应用的快速阅读功能
2. 支持的部署方式
3. 详细的安装和配置教程及运行示例

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

? 快速阅读

  1. 功能:支持通过自然语言控制电脑,提供跨平台支持。
  2. 部署:支持云端和本地部署,推荐使用 HuggingFace 或 vLLM 进行快速部署。
  3. 运行:提供详细的安装和配置教程,支持 Windows 和 MacOS 系统。

正文(附运行示例)

UI-TARS Desktop 是什么

UI-TARS Desktop

UI-TARS Desktop 是一款基于视觉语言模型(Vision-Language Model)的 GUI 代理应用,允许用户通过自然语言控制电脑操作。它结合了视觉识别和自然语言处理技术,能够理解用户的指令并执行相应的操作。

该应用支持跨平台运行,适用于 Windows 和 MacOS 系统。通过实时反馈和状态显示,用户可以直观地看到指令的执行情况,确保操作的精准性和高效性。

UI-TARS Desktop 的主要功能

  • 自然语言控制:通过自然语言指令控制电脑操作,简化用户交互。
  • 视觉识别支持:支持截图和视觉识别功能,能够识别屏幕内容并执行相应操作。
  • 精准控制:提供精确的鼠标和键盘控制,确保操作的准确性。
  • 跨平台支持:支持 Windows 和 MacOS 系统,满足不同用户的需求。
  • 实时反馈:提供实时反馈和状态显示,帮助用户了解指令执行情况。

UI-TARS Desktop 演示示例

  • Prompt:Get the current weather in SF using the web browser
  • 使用网页浏览器获取旧金山的当前天气
  • Prompt:Send a twitter with the content "hello world"
  • 发送一条包含内容“hello world”的推特推文

如何运行 UI-TARS Desktop

1. 下载

你可以从 GitHub 仓库下载最新版本的 UI-TARS Desktop。

https://github.com/bytedance/UI-TARS-desktop/releases/latest

2. 安装(MacOS)

2.1. 将 UI TARS 应用程序拖拽到 Applications 文件夹中。

UI-TARS Desktop mac_install

注意:如果应用损坏,您可以在终端中使用以下命令来修复它。

sudo xattr -dr com.apple.quarantine /Applications/UI\ TARS.app
UI-TARS Desktop mac_broken

2.2. 在 MacOS 中启用 UI TARS 的权限:

  • 系统设置 -> 隐私与安全 -> 辅助功能
  • 系统设置 -> 隐私与安全 -> 屏幕录制
UI-TARS Desktop mac_permission

2.3. 打开 UI TARS 应用程序,你将看到以下界面:

UI-TARS Desktop mac_app

3. 安装(Windows)

UI-TARS Desktop windows_install

3. 部署

3.1 云端部署

我们推荐使用 HuggingFace Inference Endpoints 进行快速部署。你可以参考以下两个官方文档:

  • 英文版https://juniper-switch-f10.notion.site/GUI-Model-Deployment-Guide-17b5350241e280058e98cea60317de71
  • 中文版https://bytedance.sg.larkoffice.com/docx/TCcudYwyIox5vyxiSDLlgIsTgWf#U94rdCxzBoJMLex38NPlHL21gNb

3.2 本地部署 [vLLM]

推荐使用 vLLM 进行快速部署和推理。你需要安装 vllm>=0.6.1

pip install -U transformers
VLLM_VERSION=0.6.6
CUDA_VERSION=cu124
pip install vllm==${VLLM_VERSION} --extra-index-url https://download.pytorch.org/whl/${CUDA_VERSION}

3.2.1 下载模型

这里提供了三种模型大小:2B7B 和 72B。为了获得最佳性能,推荐使用 7B-DPO 或 72B-DPO 模型:

  • 2B-SFThttps://huggingface.co/bytedance-research/UI-TARS-2B-SFT
  • 7B-SFThttps://huggingface.co/bytedance-research/UI-TARS-7B-SFT
  • 7B-DPOhttps://huggingface.co/bytedance-research/UI-TARS-7B-DPO
  • 72B-SFThttps://huggingface.co/bytedance-research/UI-TARS-72B-SFT
  • 72B-DPOhttps://huggingface.co/bytedance-research/UI-TARS-72B-DPO

3.2.2 启动 OpenAI API 服务

运行以下命令启动 OpenAI 兼容的 API 服务:

python -m vllm.entrypoints.openai.api_server --served-model-name ui-tars --model <path to your model>

3.2.3 输入 API 信息

在设置中输入你的 API 信息:

UI-TARS Desktop settings_model

注意:VLM 基础 URL 是与 OpenAI 兼容的 API 端点(有关更多详细信息,请参阅 OpenAI API 协议文档)。

资源

  • GitHub 仓库https://github.com/bytedance/UI-TARS-desktop
  • OpenAI API 协议文档https://platform.openai.com/docs/guides/vision/uploading-base-64-encoded-images
  • 技术论文https://arxiv.org/abs/2501.12326

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术,欢迎关注我哦!


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询