微信扫码
与创始人交个朋友
我要投稿
Whisper[1] 是一个由 OpenAI 开发的通用语音识别模型,它通过大规模弱监督学习训练而成。
这个模型不仅能够进行多语言语音识别,还能进行语音翻译和语言识别,是一款多功能的语音处理工具。
Whisper 适用于需要语音识别的各种场景,包括但不限于:
sudo apt update && sudo apt install ffmpeg
brew install ffmpeg
choco install ffmpeg
pip install -U openai-whisper
pip install git+https://github.com/openai/whisper.git
whisper --help
Whisper 提供了命令行工具,可以方便地对音频文件进行语音识别。以下是一些基本的命令行使用示例:
# 使用 turbo 模型转录音频文件
whisper audio.flac audio.mp3 audio.wav --model turbo
# 指定语言进行转录
whisper japanese.wav --language Japanese
# 将语音翻译成英文
whisper japanese.wav --language Japanese --task translate
在 Python 程序中,Whisper 同样易于使用。以下是一个简单的使用示例:
import whisper
# 加载模型
model = whisper.load_model("turbo")
# 转录音频文件
result = model.transcribe("audio.mp3")
print(result["text"])
注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-10-22
私人大模型知识库来了,开源免费!
2024-10-22
AI声音魔法:F5-TTS让你的声音克隆变得轻而易举
2024-10-22
开源向量数据库性能对比: Milvus, Chroma, Qdrant
2024-10-21
RAGFlow:重型知识库引擎
2024-10-21
10分钟学会Whisper:开源界的语音识别神器
2024-10-20
阿里云开源 AI 应用开发框架:Spring AI Alibaba
2024-10-20
LLaMA-Omni:专为与大型语言模型(LLMs)进行低延迟、高质量的语音交互而设计
2024-10-18
阿里云开源 AI 应用开发框架:Spring AI Alibaba
2024-05-06
2024-08-13
2024-06-12
2024-07-25
2024-07-08
2023-07-01
2024-06-16
2024-07-11
2024-07-18
2024-06-15