把 Whisper、Moonshine、SenseVoice 统统装进手机:sherpa-onnx 离线语音部署框架,GitHub 10.9K Star

把 Whisper、Moonshine、SenseVoice 统统装进手机:sherpa-onnx 离线语音部署框架,GitHub 10.9K Star

导读:

语音 AI 模型更新很快——Whisper、Moonshine、SenseVoice、FireRedASR、Paraformer,几乎每个月都有新模型发布。但对开发者来说,选好模型只是第一步,真正的工程挑战在后面:怎么把它跑在手机上?嵌入式设备上?浏览器里?怎么接入 NPU 加速?怎么在没有网络的环境下运行?

sherpa-onnx 是 next-gen Kaldi 团队开源的语音推理部署框架(GitHub 10.9k stars,Apache 2.0 协议),它的定位很明确:将多种语音模型统一转成 ONNX 格式,部署到各类平台上,支持离线运行。覆盖 12 项语音功能、12 种编程语言、从服务器到嵌入式的多平台支持,最新版 v1.12.29 于 3 月 12 日发布。

本文将介绍 sherpa-onnx 的功能覆盖、模型生态、硬件适配方案上手方式

一、功能矩阵:不只是语音识别

sherpa-onnx 覆盖 12 项语音功能,远不止 ASR:

功能说明

语音识别(ASR)

流式 + 非流式两种模式

语音合成(TTS)

支持多种 TTS 引擎

说话人分离

多说话人场景

说话人识别

声纹匹配

说话人验证

一对一声纹确认

语种识别

自动检测语言

语音活动检测(VAD)

基于 silero-vad(轻量级语音端点检测模型)

关键词检测

唤醒词 / 热词触发

音频标签

环境音分类

标点恢复

为识别结果添加标点

语音增强

降噪(gtcrn、DPDFNet 等降噪模型)

音源分离

人声/伴奏分离(spleeter、UVR 等分离模型)

多平台覆盖

架构AndroidiOSWindowsmacOSLinuxHarmonyOS

x64

x86

arm64

arm32

riscv64

此外还支持 WebAssembly(浏览器端运行)、WearOS、openKylin、NVIDIA Jetson(Orin NX / Nano B01)、Raspberry Pi、RISC-V 开发板等。

12 种编程语言

C++、C、Python、JavaScript、Java、C#、Kotlin、Swift、Go、Dart、Rust、Pascal,加上 WebAssembly 支持。

二、模型生态:集成了哪些模型

sherpa-onnx 定位为推理部署框架,不包含模型训练功能,而是把各方的模型转成 ONNX(Open Neural Network Exchange,开放神经网络交换格式)纳入统一框架。以下是部分已集成的模型:

语音识别(ASR)

流式模型(实时场景):

模型支持语言

Zipformer(多语言版本)

中文、英文、韩文、法文等

Paraformer(流式版)

中英双语 / 中粤英三语

非流式模型(离线/批量场景):

模型支持语言

Whisper(tiny 到 large)

多语言

Moonshine(tiny / base / v2)

英文

SenseVoice

中文、英文、粤语、日文、韩文 + 多种中文方言

FireRedASR v2(CTC / AED)

中英文 + 20+ 种方言

Paraformer(离线版)

中英文 + 多种中文方言

NVIDIA Parakeet

英文

TeleSpeech

中文 + 多种方言

Dolphin

40 种亚洲语言 + 22 种中文方言

语音合成(TTS)

模型说明

Piper

多语言轻量 TTS

Matcha

中文、英文、中英混合

Supertonic2

v1.12.29 新增

ZipVoice

中英文语音克隆

PocketTTS

英文语音克隆

2026 年近期新增

版本日期新增模型/功能

v1.12.29

3/12

Supertonic2 TTS,多语言绑定同步更新

v1.12.28

2/28

Moonshine v2 ASR,多语言绑定同步更新

v1.12.27

2/26

FireRedASR CTC 模型,Rust VAD API

v1.12.26

2/24

PocketTTS 语音嵌入缓存,Rust ASR API

新模型接入时,团队会同步更新绝大多数语言的绑定,这是 sherpa-onnx 工程量最大的地方,也是它的核心价值——开发者不需要自己做模型转换和跨平台适配。

三、硬件适配:从服务器到嵌入式

NPU 加速

sherpa-onnx 支持 4 种 NPU:

NPU厂商典型设备

RKNN

瑞芯微

RK3588 等开发板

QNN

高通

骁龙平台手机/IoT

Ascend NPU

华为

昇腾 AI 处理器

Axera NPU

爱芯元智

边缘 AI 芯片

已验证的边缘设备

README 中列出的已测试设备包括:

NVIDIA Jetson:Orin NX(CPU + GPU)、Nano B01(CPU + GPU)Raspberry PiRISC-V 开发板:LicheePi4A、VisionFive 2国产 AI 开发板:旭日X3派、爱芯派、RK3588RV1126

浏览器端:WebAssembly

sherpa-onnx 提供完整的 WebAssembly 支持,可以在浏览器中直接运行语音识别、语音合成、说话人分离、VAD 等功能,无需后端服务器。项目在 HuggingFace 上提供了大量在线 demo,涵盖多种语言和模型组合。

四、上手方式

Python 安装

pip install sherpa-onnx 

预构建应用

sherpa-onnx 提供多种开箱即用的预构建应用,无需编译:

类型覆盖功能

Android APK

流式/非流式 ASR、TTS、VAD、音频标签、说话人识别/分离、关键词检测、语种识别

Flutter App

流式 ASR、TTS(Android/Linux/macOS/Windows)

Lazarus App

字幕生成

WebAssembly Demo

ASR、TTS、VAD、说话人分离、语音克隆(浏览器直接运行)

HuggingFace 在线体验

不需要安装任何东西,直接在浏览器中试用:

语音识别(多种模型可选)语音合成(Piper、Matcha、ZipVoice)说话人分离音频标签音源分离VAD + ASR 组合(Whisper、Moonshine、SenseVoice、Paraformer 等)

大部分 demo 提供国内镜像地址。

预训练模型下载

项目通过 GitHub Releases 提供各类预训练模型的下载,按功能分类:ASR 模型、TTS 模型、VAD 模型、关键词检测模型、音频标签模型、说话人识别模型、标点模型、说话人分割模型、语音增强模型、音源分离模型。

五、总结

sherpa-onnx 的价值不在于某个模型的精度有多高,而在于解决了"模型到部署"之间的工程鸿沟。它把 Whisper、Moonshine、SenseVoice、FireRedASR 等模型统一到一个框架里,让开发者用同一套 API 就能部署到手机、嵌入式设备、浏览器或服务器上。

适合关注的场景:

需要在离线环境下运行语音 AI(无网络依赖)需要将语音能力部署到移动端、嵌入式或浏览器在多个项目中使用不同的语音模型,希望统一部署框架需要 NPU 加速(瑞芯微、高通、华为昇腾、爱芯元智)

当前局限:

定位为推理部署框架,不包含模型训练功能,依赖上游模型的更新和质量部分新模型的集成存在滞后(需要等团队完成 ONNX 转换和全语言绑定)文档以英文为主,部分中文文档覆盖不完整

项目信息:

GitHub:https://github.com/k2-fsa/sherpa-onnx文档:https://k2-fsa.github.io/sherpa/onnx/index.html协议:Apache 2.0最新版本:v1.12.29(2026-03-12)社区:Discord

Read more

Android离线语音识别终极指南:用Whisper轻松实现无网络语音转文字

Android离线语音识别终极指南:用Whisper轻松实现无网络语音转文字 【免费下载链接】whisper_androidOffline Speech Recognition with OpenAI Whisper and TensorFlow Lite for Android 项目地址: https://gitcode.com/gh_mirrors/wh/whisper_android 还在为网络不稳定而无法使用语音识别功能烦恼吗?今天我要向你介绍一个革命性的开源项目——Whisper Android,它能让你在没有网络的情况下,依然享受高质量的离线语音识别体验!🚀 想象一下:在深山徒步时记录灵感,在地铁上整理会议纪要,在飞机上撰写语音日记……所有这些场景,只要有你的Android手机,就能轻松搞定! 🌟 为什么你需要离线语音识别? 网络依赖的痛点: * 信号盲区无法使用语音助手 * 移动网络流量消耗大 * 隐私担忧:语音数据上传云端 Whisper Android的解决方案: * 🛡️ 完全离线:所有处理都在设备本地完成 * 🔒 隐私安全:你的

RoboMME:机器人通用策略的记忆基准测试与理解

RoboMME:机器人通用策略的记忆基准测试与理解

26年3月来自密西根大学、斯坦福大学和Figure AI的论文“RoboMME: Benchmarking and Understanding Memory for Robotic Generalist Policies”。 记忆对于长时程和历史依赖型机器人操作至关重要。此类任务通常涉及重复动作的计数或操作暂时被遮挡的物体。近年来,视觉-语言-动作(VLA)模型开始融入记忆机制;然而,它们的评估仍然局限于狭窄且非标准化的场景。这限制了对其的系统性理解、比较和进展评估。为了应对这些挑战,推出 RoboMME:一个大规模的标准化基准测试平台,用于评估和改进长时程、历史依赖型场景下的 VLA 模型。基准测试平台包含 16 个操作任务,这些任务根据设计的分类体系构建,用于评估时间记忆、空间记忆、物体记忆和程序记忆。进一步开发一套基于 π0.5 主干网络的 14 个记忆增强型 VLA 变型,以系统地探索多种整合策略下的不同记忆表征。 开放世界机器人操作通常需要对历史进行推理并回忆过去交互的信息。例如,家用机器人可能被要求将书放回书架上的原位、擦拭桌子达到指定次数,

3个月从零到精通:我的Dify低代码Web界面开发实战经验

3个月从零到精通:我的Dify低代码Web界面开发实战经验 【免费下载链接】Awesome-Dify-Workflow分享一些好用的 Dify DSL 工作流程,自用、学习两相宜。 Sharing some Dify workflows. 项目地址: https://gitcode.com/GitHub_Trending/aw/Awesome-Dify-Workflow 作为一名长期奋战在一线的开发者,我曾经也为复杂的Web界面开发而头疼不已。直到我发现了Dify工作流这个神器,让我在短短3个月内实现了从传统开发到低代码开发的华丽转身。今天,我将分享这段宝贵的实战经验,希望能帮助更多开发者轻松驾驭Web界面开发。 痛点分析:为什么传统Web开发让我疲惫不堪? 在接触Dify之前,我的Web开发流程是这样的:前端写HTML/CSS/JavaScript,后端写API接口,中间还要处理各种数据格式转换。每次需求变更都意味着大量的代码修改和测试工作。 记得有一次,客户要求在登录表单中增加一个"记住我"的选项,这个看似简单的需求却让我加班到深夜。前端要修改表单结构,后端要调整用户认

Docker:Docker部署Neo4j图数据库

Docker:Docker部署Neo4j图数据库

Docker:Docker部署Neo4j图数据库 前言 Neo4j是一个高性能的,基于java开发的,NOSQL图形数据库,它将结构化数据存储在网络上而不是表中;它是一个嵌入式的、基于磁盘的、具备完全的事务特性的Java持久化引擎。 Neo4j分为企业版和社区版,企业版可以创建多个数据库,链接多个数据库,但是收费……;社区版只能链接一个数据库,所以社区版不支持创建数据库命令。 Neo4j部署后默认创建名字为 neo4j 的数据库,可以直接链接这个数据库 拉取镜像 # 下载镜像 docker pull neo4j:5.26.2 也可以不指定版本 构建容器 # 创建neo4j容器 docker run -it -d -p 7474:7474 -p 7687:7687 \ -v /home/neo4j/data:/data \ -v /home/neo4j/logs: