如何下载、安装whisper、faster_whisper?

1、模型种类

whisper:有很多模型:tiny、base、small、medium、large等

faster_whisper:模型种类与whisper类似

2、模型安装

特别注意:whisper和faster_whisper中的模型,有两种获得方式。

①在网址:https://github.com/openai/whisper上有提示:pip install -U openai-whisper,下载结果为  .pt文件。在网址:https://github.com/SYSTRAN/faster-whisper上有提示:pip install faster-whisper,下载结果为.pt文件

②在网址:https://huggingface.co/,进行搜索 whisper,根据提示,可以下载 large-v3和large-v3-turbo,下载结果为文件,与①不同(特别注意)

3.模型运行

①按照①方法下载的模型:运行代码参考网址:https://github.com/openai/whisperhttps://github.com/openai/whisper ,示例如下:

import whisper

model = whisper.load_model("turbo")

# load audio and pad/trim it to fit 30 seconds
audio = whisper.load_audio("audio.mp3")
audio = whisper.pad_or_trim(audio)

# make log-Mel spectrogram and move to the same device as the model
mel = whisper.log_mel_spectrogram(audio, n_mels=model.dims.n_mels).to(model.device)

# detect the spoken language
_, probs = model.detect_language(mel)
print(f"Detected language: {max(probs, key=probs.get)}")

# decode the audio
options = whisper.DecodingOptions()
result = whisper.decode(model, mel, options)

# print the recognized text
print(result.text)

以上代码,要求# load audio and pad/trim it to fit 30 seconds,提示:whisper模型要求一句话进行识别,如果音频时间太短,可能识别结果不准确,具体请自行尝试。

②按照①方法下载的模型:运行代码参考网址:https://github.com/SYSTRAN/faster-whisperhttps://github.com/SYSTRAN/faster-whisper ,示例如下:

from faster_whisper import WhisperModel

model_size = "large-v3"

# Run on GPU with FP16
model = WhisperModel(model_size, device="cuda", compute_type="float16")

# or run on GPU with INT8
# model = WhisperModel(model_size, device="cuda", compute_type="int8_float16")
# or run on CPU with INT8
# model = WhisperModel(model_size, device="cpu", compute_type="int8")

segments, info = model.transcribe("audio.mp3", beam_size=5)

print("Detected language '%s' with probability %f" % (info.language, info.language_probability))

for segment in segments:
    print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))

以上代码,model=WhisperModel(...),可以指定cuda编号,以便合理利用资源。

③按照②方法下载的模型,可以参考vllm网址:https://github.com/vllm-project/vllmhttps://github.com/vllm-project/vllm

vllm框架中的whisper模型和faster_whisper模型一定是来自huggingface。

关于vllm安装踩坑问题,以后发布。

Read more

一文彻底讲透AI Infra:从底层逻辑到落地实战,小白也能看懂的技术全攻略

一文彻底讲透AI Infra:从底层逻辑到落地实战,小白也能看懂的技术全攻略

文章目录 * 一、AI Infra到底是什么?用3个生活例子秒懂 * 二、AI Infra的核心组件:4大模块撑起整个AI生态 * 三、AI Infra实战:3个经典场景,代码直接抄 * 场景1:个人副业——搭建AI绘画平台,基于Stable Diffusion+FastAPI部署 * 核心需求 * 技术选型 * 核心代码(简化版,可直接运行) * 部署步骤 * 场景2:企业应用——用LangChain+RAG搭建AI知识库,3小时落地 * 核心需求 * 技术选型 * 核心代码(简化版) * 部署步骤 * 场景3:端侧部署——将AI模型轻量化,适配手机/IoT设备 * 核心需求 * 技术选型 * 核心步骤(含代码片段) * 四、AI Infra的发展趋势:2026年必看的3个方向 * 1.

2026全网最热Claude Skills工具箱,GitHub上最受欢迎的7大Skills开源AI技能库

2026全网最热Claude Skills工具箱,GitHub上最受欢迎的7大Skills开源AI技能库

猫头虎AI开源福利|全网最热Claude Skills工具箱,GitHub上最受欢迎的7大Skills神器! 大家好,我是猫头虎 🐯最近AI圈有个词儿火得一塌糊涂——#Skills(技能)。 作为Claude生态的"外挂系统",#Skills能让你的AI Agent从"聊天机器人"进化成"专业打工仔"。今天本虎给大家扒一扒GitHub上最受欢迎的7大#Skills神器,全部开源免费,文末附直达 戳! ⚠️ 安全提醒:近期已有黑客利用第三方#Skills进行攻击的案例,强烈建议优先使用官方或自制#Skills!别担心,第一个工具就是官方出品的"元技能制造机",零代码也能DIY专属技能! 🛠️ 核心工具篇|官方出品,必属精品 文章目录 * 猫头虎AI开源福利|全网最热Claude Skills工具箱,GitHub上最受欢迎的7大Skills神器! * 🛠️ 核心工具篇|官方出品,必属精品 * 1️

多模态 AI 应用:图文音视频一体化开发实战教程

多模态 AI 应用:图文音视频一体化开发实战教程

什么是多模态AI 多模态AI是指能够同时处理文本、图像、音频、视频等多种不同类型数据的人工智能系统,它打破了单模态AI的信息壁垒,能更贴近人类理解世界的方式。比如我们日常使用的AI聊天机器人识图功能、视频自动字幕生成工具,都是多模态AI的典型应用。 开发前的核心准备 模型选型建议 模型类型推荐模型适用场景开源轻量模型Qwen-VL-Chat、MiniGPT-4本地部署、快速验证云端API模型GPT-4V、Gemini Pro生产级应用、复杂任务处理专业领域模型CLIP、Whisper图像检索、音频转写等细分场景 环境依赖安装 我们将基于Python生态实现实战项目,需要安装以下核心库: # 基础依赖 pip install torch torchvision transformers pillow # 音频处理依赖 pip install librosa soundfile # 视频处理依赖 pip install opencv-python moviepy # API调用依赖(可选,用于调用云端多模态模型) pip install openai anthropic

Stitch——Google热门的免费AI UI设计工具

Stitch——Google热门的免费AI UI设计工具

Google Stitch是谷歌在2025年I/O大会上推出的一款AI驱动的UI设计工具。它能根据文字描述或草图快速生成网页和移动端界面,并导出可用于开发的前端代码,并且可以直接与另一个前端AI编码工具AI Studio直接联动,将生成的UI发给AI Studio进行开发。 访问方式与要求: 1. 通过访问官网(stitch.withgoogle.com),使用谷歌账户登录即可开始使用。 2. Google Stitch并不支持全部地区,如vpn设置为中国香港也无法访问,美国地区可以使用。 使用流程: 第一步:进入官网并完成登录: 第二步:选择合适的模型: 1. 默认选择的是3 Flash,使用Gemini 3.0 Flash,生成速度较快。 2. 3 Pro模式下,优先保障高质量与推理能力,速度缓与3 Flash。 3. Redesign模式使用Nano Banana Pro重新设计现有项目,需要添加屏幕截图。 4. Ideate模式下,支持提出问题并寻找解决方案。 第三步:选择移动端或Web端并添加描述: