微信扫码
添加专属顾问
我要投稿
Whisper[1] 是一个由 OpenAI 开发的通用语音识别模型,它通过大规模弱监督学习训练而成。
这个模型不仅能够进行多语言语音识别,还能进行语音翻译和语言识别,是一款多功能的语音处理工具。
Whisper 适用于需要语音识别的各种场景,包括但不限于:
sudo apt update && sudo apt install ffmpeg
brew install ffmpeg
choco install ffmpeg
pip install -U openai-whisper
pip install git+https://github.com/openai/whisper.git
whisper --help
Whisper 提供了命令行工具,可以方便地对音频文件进行语音识别。以下是一些基本的命令行使用示例:
# 使用 turbo 模型转录音频文件
whisper audio.flac audio.mp3 audio.wav --model turbo
# 指定语言进行转录
whisper japanese.wav --language Japanese
# 将语音翻译成英文
whisper japanese.wav --language Japanese --task translate
在 Python 程序中,Whisper 同样易于使用。以下是一个简单的使用示例:
import whisper
# 加载模型
model = whisper.load_model("turbo")
# 转录音频文件
result = model.transcribe("audio.mp3")
print(result["text"])
注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-22
Notesnook:一款完全开源、以隐私为核心的笔记应用
2025-12-22
一文彻底看懂 Google 最新开源 A2UI 协议:如何让 AI Agent “说出UI” ?
2025-12-22
火线解析MiniMax招股书!全球领先大模型成本只有OpenAI 1%,果然拳怕少壮
2025-12-21
Benotes:一款功能强大、易于安装和使用的开源笔记与书签一体化应用
2025-12-21
告别每月 AI 订阅费!这款开源笔记内置 Ollama,让你的电脑变身第二大脑
2025-12-20
开口跪!这款开源TTS让AI说话带“情绪”,还能多语言克隆!
2025-12-20
ollama v0.13.5 发布详解:新模型接入、引擎升级与工具能力增强
2025-12-19
小米大模型Mimo-V2-Flash本地部署
2025-11-19
2025-10-20
2025-10-27
2025-10-27
2025-10-03
2025-09-29
2025-11-17
2025-10-29
2025-09-29
2025-11-07
2025-12-22
2025-11-12
2025-11-10
2025-11-03
2025-10-29
2025-10-28
2025-10-13
2025-09-29