微信扫码
添加专属顾问
我要投稿
猴哥分享低延迟AI服务端ASR搭建,CPU推理方案详解。
核心内容:
1. sherpa-onnx开源项目介绍,跨平台语音处理工具包
2. ASR模型选择,流式推理paraformer模型
3. CPU推理方案,模型加载与实现
GPU推理
的成本,足以让大部分玩家却步了。如果你:
可以试试接下来的CPU推理
方案。
本篇将首先介绍 sherpa-onnx
,一款高性能的语音处理开源项目。
然后,选择其中的模型,实现小智AI服务端ASR
的实时CPU推理
。
https://github.com/k2-fsa/sherpa-onnx
sherpa-onnx
是一款跨平台、多语言的语音处理工具包,使用 onnxruntime 实现。支持的功能非常丰富,包括:
老规矩,简单介绍下亮点:
跨平台兼容:包括 Windows、macOS、Linux以及Android和iOS等操作系统。它还支持各种嵌入式系统。
多语言API:提供11种主流编程语言接口。
高性能:基于ONNX运行时,适合在各种计算能力的设备上部署。
模型列表:https://k2-fsa.github.io/sherpa/onnx/pretrained_models/index.html
根据上篇的实测,VAD 模型参数量较少,延时可忽略。
因此,VAD 模型选择和上篇保持一致。
要想 ASR 识别效果不拉跨,模型参数量少不了。
同时还得尽可能满足低延迟。
综上,ASR
模型,我们可以考虑选择支持流式推理的 paraformer
,这也是阿里云上的流式推理模型。
考虑到模型参数量和推理延时正相关,为了兼顾性能和延时,可以选择 3dspeaker_speech_campplus_sv_zh_en_16k-common_advanced
VAD 模型加载和上篇保持一致,ASR 和 声纹识别模型,采用 sherpa-onnx
的方式加载。
class ModelManager:
def __init__(self):
self.vad_model = None
self.asr_model = None
self.sv_model = None
def load_models(self):
self.vad_model = AutoModel(model="ckpts/speech_fsmn_vad_zh-cn-16k-common-pytorch")
model_dir = "ckpts/sherpa-onnx-streaming-paraformer-bilingual-zh-en"
self.asr_model = sherpa_onnx.OnlineRecognizer.from_paraformer(
encoder=f'{model_dir}/encoder.int8.onnx',
decoder=f'{model_dir}/decoder.int8.onnx',
tokens=f'{model_dir}/tokens.txt')
model_dir = "ckpts/3dspeaker_speech_campplus_sv_zh_en_16k-common_advanced.onnx"
config = sherpa_onnx.SpeakerEmbeddingExtractorConfig(model=model_dir)
self.sv_model = sherpa_onnx.SpeakerEmbeddingExtractor(config)
服务的核心逻辑是:
当 VAD 检测到有活动音频时,asr_model 创建音频流self.stream
:
if self.stream is None:
self.stream = self.model_manager.asr_model.create_stream()
self.input_stream(self.audio_buffer)
然后,每来一个音频片段,都压入音频流:
def on_audio_frame(self, frame):
frame_fp32 = np.frombuffer(frame, dtype=np.int16).astype(np.float32) / 32768
if self.stream:
self.input_stream(frame_fp32)
实测发现,streaming-paraformer
所谓的流式推理是:每 10 个 60ms 音频会触发一次解码。
而单次解码耗时 < 0.3s。
因此,rtf 确实可以做到 < 1。
为此,把音频数据压入一个消费队列,进行异步处理,理论上完全可以做到实时推理。
改造过程如下:
首先,音频数据不再直接解码,而是压入队列:
# self.input_stream(frame_fp32)
self.asr_queue.put(frame_fp32)
然后,创建一个 worker 异步消费队列中的音频:
def _decode_worker(self):
while True:
try:
# 使用阻塞方式获取音频数据
chunk = self.asr_queue.get(timeout=0.01)
if self.stream: # 确保stream存在
self.running = True
self.input_stream(chunk)
except Empty:
self.running = False # 清除解码事件
continue # 队列为空时继续等待
except Exception as e:
logging.error(f"Error in decode worker: {e}", exc_info=True)
最后,声纹向量模型获取音频特征:
def generate_embedding(self):
if self.audio_buffer.shape[0] == 0:
return []
# last 3 seconds for speaker embedding
stream = self.model_manager.sv_model.create_stream()
stream.accept_waveform(SAMPLE_RATE, self.audio_buffer[-SAMPLE_RATE*3:])
stream.input_finished()
embedding = self.model_manager.sv_model.compute(stream)
return embedding
streaming-paraformer
流式推理:每 10 个 60ms 音频触发一次解码:
声纹向量
模型,音频时长最长3s,单次推理:
上述三个模型加载进来,占用内存 1.0 G+。
所以,如果不考虑高并发的情况,虚拟机配置需至少确保 2c2g。
如果考虑主流云厂商,包年包月的价格如下:
阿里云:https://www.aliyun.com/minisite/goods?userCode=ggqtukm3
腾讯云:https://curl.qcloud.com/BLm2fgkN
当然,如果只是想玩玩,压根没想用上一年啊。
推荐试试 sealos
的产品,根据使用资源,按需付费。
注册体验:https://cloud.sealos.run/?uid=QDGJoX2_Qp
新人注册送 10 元余额,足够玩一阵了。
我们以 2c2g 为例,并挂载一块 20G 的磁盘,每天的费用大概在 1.5 元左右,不用时关掉就好。
本文分享了小智AI服务端ASR
的CPU推理
方案,并对配置和成本进行了估算。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-06
OpenAI企业AI落地七大经验:从评估到自动化的实践指南
2025-05-05
"单Agent+MCP"与"多Agent"架构对比分析(上):概念、优劣势与架构选择
2025-04-30
Nacos 3.0 正式发布:MCP Registry、安全零信任、链接更多生态
2025-04-30
Qwen3小模型实测:从4B到30B,到底哪个能用MCP和Obsidian顺畅对话?
2025-04-30
WeClone: 用微信聊天记录微调大语言模型
2025-04-30
强化微调来袭!如何让AI真正“听懂”人类需求
2025-04-30
部署运维SRE专属大模型
2025-04-29
Qwen3 一手实测
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-30
2025-04-27
2025-04-27
2025-04-23
2025-04-20
2025-04-01
2025-03-31
2025-03-20