【安装日记】Whisper-OpenAI 开源语音识别工具

文章目录

关于 Whisper(OpenAI 开源语音识别工具)的详细安装与使用指南,涵盖技术细节、参数解释、优化技巧和常见问题解决方案。


1. 安装 Whisper

1.1 系统依赖
  • 必须安装 FFmpeg:处理音频/视频编解码。
    • Windows:
      • 安装后需将 ffmpeg 添加到系统环境变量 PATH

推荐通过 官方二进制包 安装,或使用 Chocolatey:

choco install ffmpeg 

macOS:

# 使用 Homebrew brew install ffmpeg 

Linux:

# Debian/Ubuntusudoapt update &&sudoaptinstall ffmpeg # CentOS/RHELsudo yum install ffmpeg ffmpeg-devel 
1.2 安装 Whisper
    • Python 版本要求:建议 Python 3.9 或更高版本。
    • 依赖项:自动安装 torch, numpy, tqdm, more_itertools 等。

验证安装

whisper --version# 输出 Whisper 版本

通过 pip 安装

pip install-U openai-whisper 
1.3 GPU 加速(可选)
  • NVIDIA GPU 用户
    1. 安装 CUDA Toolkit 11.7+ 和 cuDNN。
  • Apple Silicon (M1/M2) 用户

运行命令时添加 --device mps

whisper audio.mp3 --device mps 

使用 Metal Performance Shaders (MPS) 加速:

pip install torch torchaudio -U--pre --extra-index-url https://download.pytorch.org/whl/nightly/cpu 

验证 GPU 是否启用:

import torch print(torch.cuda.is_available())# 输出应为 True

安装 PyTorch 的 CUDA 版本:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117 

2. 模型详解

2.1 模型类型

Whisper 提供 5 种预训练模型,按精度和速度排序(从低到高):

模型名称参数量内存占用适合场景
tiny39M~1 GB快速转录,低精度
base74M~1.5 GB平衡速度与精度
small244M~2.5 GB中等精度,多语言支持
medium769M~5 GB高精度,复杂音频
large1550M~10 GB最高精度,专业场景
  • 多语言支持large 模型支持 99 种语言,其他模型支持主要语言(如中、英、日、西等)。
2.2 模型下载
  • 自动下载:首次运行时会自动下载模型到 ~/.cache/whisper/
  • 手动下载(解决网络问题):
    1. 从 Hugging Face 仓库下载模型文件(如 medium.pt)。
    2. 将文件放入 ~/.cache/whisper/(Linux/macOS)或 C:\Users\<用户名>\.cache\whisper\(Windows)。

3. 命令行使用

3.1 基础命令
whisper [音频文件路径]--model[模型名]--language[语言代码]

示例

# 使用中等模型转录英文音频,生成 TXT 和 SRT 文件 whisper lecture.mp3 --model medium --language en --output_format txt,srt 
3.2 核心参数
参数说明
--model指定模型(默认 small
--language指定语言(如 zh, en, ja),若未指定会自动检测
--tasktranscribe(转录)或 translate(翻译为英文)
--output_format输出格式:txt, srt, vtt, tsv, json(默认全部生成)
--output_dir指定输出目录(默认当前目录)
--fp16使用 FP16 精度加速推理(需 GPU 支持)
--device指定计算设备:cpu, cuda, mps(Apple Silicon)
--temperature控制生成随机性(0-1,0 表示确定性输出)
--best_of束搜索候选数(影响精度与速度)
--beam_size束搜索宽度(与 best_of 配合使用)
--word_timestamps为每个单词生成时间戳(适用于 jsonsrt 格式)
3.3 高级用法

自定义提示词(提升准确性):

whisper audio.mp3 --initial_prompt"以下是关于量子力学的讲座。"# 提供上下文提示

仅生成字幕文件

whisper audio.mp4 --task translate --output_format srt # 翻译为英文字幕

处理长音频(自动分割):

whisper long_audio.wav --model large --language en --split_duration300# 每 300 秒分割一次

4. Python API 使用

通过 Python 脚本灵活调用 Whisper:

import whisper # 加载模型 model = whisper.load_model("medium")# 转录音频 result = model.transcribe("audio.mp3", language="zh", fp16=False)# 输出结果print(result["text"])# 完整文本for segment in result["segments"]:print(f"[{segment['start']}-{segment['end']}s] {segment['text']}")
API 参数

transcribe() 方法支持所有命令行参数:

result = model.transcribe("audio.wav", language="en", temperature=0.2, beam_size=5, word_timestamps=True, initial_prompt="This is a podcast about climate change.")

5. 性能优化

5.1 加速技巧
  • GPU 加速:确保安装 CUDA 版本的 PyTorch。

批处理(同时处理多个文件):

whisper audio1.mp3 audio2.wav --model small --output_dir ./outputs/ 

量化模型(降低内存占用):

model = whisper.load_model("medium", device="cuda", in_memory=True)
5.2 内存不足处理
  • 使用更小的模型(如 basetiny)。
  • 添加 --split_duration 参数分割长音频。

6. 常见问题解决

6.1 错误:FileNotFoundError: [Errno 2] No such file or directory: 'ffmpeg'
  • 原因:FFmpeg 未正确安装或未添加到 PATH
  • 解决
    • 重新安装 FFmpeg 并确认命令行中 ffmpeg -version 可执行。
    • Windows 用户需手动添加 FFmpeg 到环境变量。
6.2 错误:ERROR: Could not find model file
  • 原因:模型下载失败或路径错误。
  • 解决
    • 手动下载模型并放入 ~/.cache/whisper/

指定模型路径:

whisper audio.mp3 --model /path/to/custom_model.pt 
6.3 识别结果不准确
  • 优化方法
    • 使用更大的模型(如 mediumlarge)。
    • 添加 --initial_prompt 提供上下文关键词。
    • 清理音频背景噪音(使用 Audacity 等工具预处理)。

7. 扩展应用

7.1 实时语音识别

结合麦克风输入库(如 pyaudio)实现实时转录:

import whisper import pyaudio import wave # 录制音频并保存为文件 CHUNK =1024 FORMAT = pyaudio.paInt16 CHANNELS =1 RATE =16000 RECORD_SECONDS =5 p = pyaudio.PyAudio() stream = p.open(format=FORMAT, channels=CHANNELS, rate=RATE,input=True, frames_per_buffer=CHUNK) frames =[]print("Recording...")for _ inrange(0,int(RATE / CHUNK * RECORD_SECONDS)): data = stream.read(CHUNK) frames.append(data) stream.stop_stream() stream.close() p.terminate()# 保存为 WAV 文件with wave.open("temp.wav",'wb')as wf: wf.setnchannels(CHANNELS) wf.setsampwidth(p.get_sample_size(FORMAT)) wf.setframerate(RATE) wf.writeframes(b''.join(frames))# 使用 Whisper 转录 model = whisper.load_model("base") result = model.transcribe("temp.wav")print(result["text"])
7.2 集成到其他工具
  • 生成字幕文件:将 SRT 文件导入视频剪辑软件(如 Premiere、DaVinci Resolve)。

批量处理脚本

# 遍历目录下所有 MP3 文件forfilein *.mp3;do whisper "$file"--model small --output_dir ./transcripts/ done

8. 注意事项

  • 音频格式:支持 MP3、WAV、OGG、FLAC 等格式,建议使用 16kHz 单声道音频。
  • 硬件要求
    • large 模型需至少 10GB 内存(GPU 推荐 16GB+ VRAM)。
    • 长音频处理可能需要更多内存。
  • 隐私保护:离线运行,无需联网(模型下载后数据不上传)。

通过上述指南,你可以充分利用 Whisper 实现高精度语音识别。如需进一步定制(如微调模型),可参考 官方 GitHub 仓库 和开发者文档。

Read more

还在手打Prompt?这份2025最新AI绘画关键词+教程+报告资料包直接拿走

正文 前言:为什么2026年还在卷Prompt? 2025年过去,AIGC工具已经迭代了好几轮: * Midjourney V6.1 / V7 alpha * Stable Diffusion 3.5 / Flux.1 / SDXL Turbo 衍生模型 * NovelAI、Pony、AutismMix 等社区fine-tune大热 * ChatGPT-4o / Claude 3.5 / Gemini 2.0 辅助写Prompt效率翻倍 但无论模型怎么更新,核心竞争力依然是Prompt工程。 一个精心设计的Prompt,能让出图质量提升3-10倍,节省N倍迭代时间。 反之,乱写一通,模型再强也只能出“随机抽象画”。 本文将系统拆解 Midjourney / Stable Diffusion 目前最主流的Prompt写法结构,并附上2025-2026年实测有效的进阶技巧。最后在文末放出我收集整理的一批高质量学习资料(夸克网盘直链),包括: * 12000+

VHDL数字时钟在FPGA上的系统学习路径

从零开始打造一个VHDL数字时钟:FPGA上的系统性学习实践 你有没有试过,在FPGA开发板上点亮第一个LED的那一刻,心里涌起一股“我正在操控硬件”的兴奋?但很快就会发现——让灯亮只是起点。真正让人着迷的是: 如何用代码‘画’出电路,让时间在芯片里流淌 。 今天我们就来干一件“小而完整”的事: 用VHDL语言,在FPGA上从头构建一个数字时钟 。它不只是“显示时间”这么简单,而是一个涵盖时序逻辑、状态控制、人机交互和物理驱动的微型系统工程。通过这个项目,你会真正理解什么叫“写代码就是在设计电路”。 为什么选“数字时钟”作为入门项目? 很多初学者一上来就想做图像处理、通信协议或者神经网络加速器,结果被复杂的接口和算法压得喘不过气。其实,最好的入门项目是那种“看得见、摸得着、改了立刻有反馈”的系统。 数字时钟恰恰满足这一点: * 它有明确的时间行为(每秒走一次) * 有人机交互(按键调时间) * 有输出设备(数码管闪烁可见) * 所有模块都可以逐步搭建、单独验证 更重要的是,

(最新SCI路径规划对比)25年最新五种算法优化解决无人机三维巡检三维路径规划(人工旅鼠不实燕麦壮丽细尾鸢雪融化算法粒子群(Matlab代码实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭:行百里者,半于九十。 📋📋📋本文内容如下:🎁🎁🎁 目录  ⛳️赠与读者 💥第一部分——内容介绍 2025年智能算法优化三维路径规划无人机巡检研究综述 摘要 关键词 1. 引言 2. 最新智能算法在三维路径规划中的应用 2.1 人工蜂鸟算法(AHA)优化路径规划 2.2 多目标海星优化算法(MOSFOA)协同路径规划 2.3 雪雁算法(SGA)集群路径规划 2.4 人工旅鼠算法(ALA)动态路径规划 2.5 粒子群优化算法(PSO)经典改进与应用 3. 算法对比与选型建议 4. 结论与展望 📚第二部分—

多模态学习(五):基于可变形注意力的无人机可见光-红外图像配准算法解析

1. 引言:当无人机“双眼”看到的世界不一样 大家好,我是老张,一个在AI和无人机视觉领域摸爬滚打了十来年的工程师。今天想和大家聊聊一个听起来有点专业,但实际上非常“接地气”的问题:怎么让无人机上的“两只眼睛”看到同一个东西? 想象一下,你操控的无人机上装了两台相机:一台是我们日常用的可见光相机,能拍出色彩斑斓的画面;另一台是红外热成像相机,能在黑夜或雾霾中“看见”物体散发的热量。这本来是件好事,相当于给无人机开了“天眼”。但现实很骨感,由于这两台相机安装位置、镜头视角不可能完全一致,它们拍下的同一场景,在图像上往往是错位的。这就好比你的左眼和右眼看到的画面对不上,不仅看着头晕,更严重的是,当你用这些错位的图像去做目标检测、跟踪或者融合时,结果会一塌糊涂。 这就是“可见光-红外图像配准”要解决的核心问题。简单说,就是通过算法计算,把红外图像“掰正”,让它和可见光图像在空间上严丝合缝地对齐。过去,学术界很多研究都默认这两幅图是已经对齐好的,直接拿来做后续分析。但实际飞过无人机的朋友都知道,这纯属理想情况。