CosyVoice环境安装报错:安装openai-whisper时出现ModuleNotFoundError: No module named ‘pkg_resources‘的原因

先说如何解决,我个人采用源码安装,安装时禁用构建隔离:
git clone https://github.com/openai/whisper.git
cd whisper
git checkout v20231117
pip install -e . --no-build-isolation

再说该问题产生的原因,下面是大D老师的回答,自行参考。

太棒了!你找到了正确的解决方案。让我详细解释为什么会出现这个问题,以及为什么 --no-build-isolation 能解决它。

🔍 问题根源分析

问题的关键在于 PEP 517/518 构建隔离机制和你的 setup.py 实现方式。

1. 构建隔离机制 (Build Isolation) 的工作原理

当你执行 pip install -e .(不带 --no-build-isolation)时,pip 会:

1. 创建一个临时的、干净的虚拟环境(在 /tmp/pip-build-env-xxx/) 2. 在这个隔离环境中只安装 pyproject.toml 中 [build-system] 要求的包 3. 在隔离环境中执行构建(运行 setup.py) 4. 将构建产物安装到你的目标环境 

2. 为什么你的构建会失败

看你的 setup.py 第5行:

import pkg_resources # 这行在构建的早期阶段就需要

问题出在第30行附近:

install_requires=requirements +[str(r)for r in pkg_resources.parse_requirements(open(os.path.join(os.path.dirname(__file__),"requirements.txt")))],

关键问题pkg_resources.parse_requirements()模块导入级别就被执行了!

这意味着:

  • Python 在解析 setup.py 时,立即执行了 import pkg_resources
  • 但在隔离的构建环境中,默认没有安装 setuptools
  • 因此 pkg_resources 不存在,导致 ModuleNotFoundError

3. 构建环境 vs 目标环境的区别

┌─────────────────────┐ ┌─────────────────────┐ │ 目标虚拟环境 │ │ 隔离构建环境 │ │ (cosyvoice) │ │ (临时) │ ├─────────────────────┤ ├─────────────────────┤ │ ✓ setuptools 81.0.0 │ │ ✗ setuptools 未安装 │ │ ✓ pkg_resources │ │ ✗ pkg_resources │ │ ✓ 所有项目依赖 │ │ 只有构建基础包 │ └─────────────────────┘ └─────────────────────┘ ↑ ↑ └────── pip install -e . ──────┘ 需要同时满足两者 

💡 为什么 --no-build-isolation 能解决

pip install-e. --no-build-isolation 

这个命令告诉 pip:“不要创建隔离的构建环境,直接在当前激活的虚拟环境中构建

于是流程变成:

┌─────────────────────┐ │ 目标虚拟环境 │ │ (cosyvoice) │ ├─────────────────────┤ │ ✓ setuptools 81.0.0 │ ←── 直接在同一个环境中执行构建 │ ✓ pkg_resources │ 和安装 │ ✓ 所有项目依赖 │ └─────────────────────┘ ↓ pip install -e . (无隔离环境) 

因为你的虚拟环境中已经有 setuptools,所以 import pkg_resources 可以成功执行。

📝 更好的修复方式

虽然 --no-build-isolation 解决了问题,但更好的做法是修改 setup.py,使其在隔离环境中也能工作:

import os import platform import sys from setuptools import find_packages, setup # 延迟导入 pkg_resources,或使用 try/exceptdefget_install_requires():"""延迟解析 requirements.txt,避免构建时依赖""" requirements =[]if sys.platform.startswith("linux")and platform.machine()=="x86_64": requirements.append("triton>=2.0.0,<3")# 只在需要时导入 pkg_resourcestry:import pkg_resources req_file = os.path.join(os.path.dirname(__file__),"requirements.txt")withopen(req_file, encoding="utf-8")as f: requirements.extend([str(r)for r in pkg_resources.parse_requirements(f)])except ImportError:# 降级方案:简单读取 requirements.txt req_file = os.path.join(os.path.dirname(__file__),"requirements.txt")withopen(req_file, encoding="utf-8")as f: requirements.extend([ line.strip()for line in f if line.strip()andnot line.startswith("#")])return requirements defread_version(fname="whisper/version.py"):exec(compile(open(fname, encoding="utf-8").read(), fname,"exec"))returnlocals()["__version__"] setup( name="openai-whisper", py_modules=["whisper"], version=read_version(), description="Robust Speech Recognition via Large-Scale Weak Supervision", long_description=open("README.md", encoding="utf-8").read(), long_description_content_type="text/markdown", readme="README.md", python_requires=">=3.8", author="OpenAI", url="https://github.com/openai/whisper", license="MIT", packages=find_packages(exclude=["tests*"]), install_requires=get_install_requires(),# 使用函数延迟解析 entry_points={"console_scripts":["whisper=whisper.transcribe:cli"],}, include_package_data=True, extras_require={"dev":["pytest","scipy","black","flake8","isort"]},)

🎯 总结

问题原因解决方案
ModuleNotFoundError: No module named 'pkg_resources'构建隔离环境中没有 setuptools,但 setup.py 在模块级别导入 pkg_resources1. ✅ --no-build-isolation 跳过隔离环境
2. 修改 setup.py 延迟导入 pkg_resources

你使用的 --no-build-isolation 是完全正确的临时解决方案。对于长期使用,可以考虑向项目提交 PR 修改 setup.py,使其构建时不需要预先存在的 setuptools。

Read more

Llama-Factory是否支持强化学习微调?RLHF模块进展

Llama-Factory 是否支持强化学习微调?RLHF 模块进展深度解析 在大模型时代,如何让一个“通才”变成懂你心思的“专家”,是每个开发者都在思考的问题。预训练语言模型虽然知识渊博,但生成内容常常天马行空、缺乏边界。监督微调(SFT)能教会它基本对话能力,可要让它真正理解人类偏好——比如更喜欢简洁回答而非啰嗦段落、避免敏感话题、保持逻辑连贯——仅靠标注好的输入-输出对已经不够了。 这时候,基于人类反馈的强化学习(RLHF) 就成了关键突破口。ChatGPT 的惊艳表现背后,正是 RLHF 在起作用:不是直接告诉模型“该说什么”,而是通过大量“这个回答比那个好”的比较数据,训练出一个打分器(奖励模型),再用这个打分器去引导主模型一步步优化自己的输出策略。 听起来很美,但落地极难。RLHF 是一条由 SFT → 奖励模型训练 → PPO 强化学习组成的复杂流水线,涉及多个模型协同、分布式计算调度和算法稳定性控制。对于大多数团队来说,从零搭建这样一套系统成本太高。

前端营销(AIGC II)

前端营销(AIGC II)

营销并非传统意义上的“前端创意投放”,而是深度内嵌于供应链、流量、用户、商品、场域的中台化运营体系。京东上下游链路极长,从采销、仓储、履约到流量分发、转化成交、用户复购,营销的核心价值是整合——找准人、选好货、用对场。前端在这里不再只是“做页面”,而是承接中台能力、串联全链路、支撑多品类快节奏运营的关键枢纽。 本文从业务理解与技术实现两大维度,系统拆解京东营销前端的真实角色、能力边界与工程实践。 一、业务理解:先懂营销,再写代码 京东营销前端的起点,是对齐业务本质:营销偏中台、本质是运营。前端必须把业务逻辑吃透,才能用技术支撑“整合”核心目标。 1.1 京东营销的核心定位:整合型运营中台 * 核心价值:人-货-场全域整合 * 人:搜推用户、PLUS会员、校园人群、CPS渠道人群、品牌定向人群 * 货:

买不起显卡怎么玩AI语音?Whisper云端镜像5分钟上手

买不起显卡怎么玩AI语音?Whisper云端镜像5分钟上手 你是不是也遇到过这样的情况:想做一个酷炫的AI语音项目参加比赛,但家里电脑配置太低,连个独立显卡都没有?父母一听要花上万块买设备就摇头,而你又不想放弃这个展示创意的机会。别急——现在有一种方法,不用买显卡、不依赖高性能电脑,也能在5分钟内跑通最先进的语音识别模型。 这就是我们要聊的主角:Whisper云端镜像。它基于OpenAI开源的Whisper语音识别技术,专为资源有限的小白用户设计。无论你是高中生做AI创新赛项目,还是初学者想试试语音转文字功能,都可以通过ZEEKLOG提供的预置镜像,在云端快速部署并使用强大的语音识别能力。 这篇文章就是为你量身打造的实战指南。我会带你一步步操作,从零开始,不需要懂代码细节,也不需要自己装环境,只要跟着步骤点击几下,就能让Whisper模型帮你把录音自动转成文字,甚至还能支持多语言翻译和时间戳标注!整个过程就像打开一个网页应用那么简单。 学完这篇,你能做到: * 理解Whisper是什么、能干什么 * 在低配电脑上实现高精度语音转写 * 快速部署并调用云端AI模型服务

Diffusers中文教程:从AI绘画小白到高手的完整指南

Diffusers中文教程:从AI绘画小白到高手的完整指南 【免费下载链接】diffusersDiffusers:在PyTorch中用于图像和音频生成的最先进扩散模型。 项目地址: https://gitcode.com/GitHub_Trending/di/diffusers 快速上手:5分钟创作你的第一幅AI画作 还在为复杂的AI绘画配置发愁?别担心,跟着我一起,用最简单的步骤快速体验AI绘画的魅力! 首先,让我们准备基础环境: # 创建专属AI绘画环境 python -m venv ai_painting_env source ai_painting_env/bin/activate # 一键安装核心包 pip install diffusers transformers accelerate torch 现在,让我们用三行代码生成第一幅作品: from diffusers import StableDiffusionPipeline import torch # 魔法开始!