LLaMA Factory操作界面微调时报disable multiprocessing.

LLaMA Factory操作界面微调时报disable multiprocessing.

LLaMA Factory操作界面微调时报disable multiprocessing

陈述问题

由于显卡性能不强,微调模型时会报以下下错误,GPU内存或系统内存不足,尤其在处理大规模数据或大模型时,子进程因内存溢出崩溃。

 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "G:\project\LLaMA-Factory\src\llamafactory\data\converter.py", line 420, in align_dataset return dataset.map( ^^^^^^^^^^^^ File "C:\Python312\Lib\site-packages\datasets\arrow_dataset.py", line 557, in wrapper out: Union["Dataset", "DatasetDict"] = func(self, *args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Python312\Lib\site-packages\datasets\arrow_dataset.py", line 3166, in map for rank, done, content in iflatmap_unordered( File "C:\Python312\Lib\site-packages\datasets\utils\py_utils.py", line 713, in iflatmap_unordered raise RuntimeError( RuntimeError: One of the subprocesses has abruptly died during map operation.To debug the error, disable multiprocessing. 

解决思路

我们可以调整LlamaFactory 训练命令中 --preprocessing_num_workers

–preprocessing_num_workers 是 LlamaFactoryLlamaFactory(以及基于 Hugging Face 生态的大模型训练框架)中用于数据预处理阶段的核心参数,具体作用如下: 核心定义
这个参数指定了数据预处理时使用的进程 / 线程数量(这里设置为 16),用于并行处理训练数据(比如加载数据集、分词、格式化、生成
attention mask 等操作)。 具体工作机制 默认情况下,preprocessing_num_workers 为
0,意味着所有数据预处理工作都在主线程中串行执行; 设置为 16 时,框架会启动 16 个独立的 worker 进程 /
线程,同时对不同批次的数据集进行预处理,充分利用 CPU 多核资源。 实际效果 ✅ 加速数据预处理:对于大尺寸数据集(比如几万 /
几十万条样本),多 worker 并行处理能显著减少数据加载和预处理的耗时,避免训练过程中出现 “GPU 等数据” 的空闲情况; ⚠️
资源占用注意:worker 数量并非越多越好: 如果设置的数值超过你的 CPU 核心数(比如你的 CPU 只有 8 核却设为
16),会导致进程切换开销增大,反而变慢; 过多的 worker 还会占用更多内存,可能引发 OOM(内存溢出)。 适用场景
这个参数仅作用于训练前的数据预处理阶段(比如分词、数据格式化),训练过程中的计算(如前向 / 反向传播)仍由 GPU
负责,不会影响训练阶段的并行逻辑。 实用建议 推荐设置值:通常设为你的 CPU 物理核心数(比如 8 核 CPU 设为 8,16 核设为
16),或核心数的 1-2 倍; 调试阶段:如果出现数据加载报错(如 BrokenPipeError),可以先将该值设为
0(单线程)排查问题; 内存敏感场景:如果数据集样本长、内存紧张,适当降低该值(比如 8 或 4)。 总结
–preprocessing_num_workers 16 表示启用 16 个并行进程处理训练数据的预处理(分词、格式化等); 核心作用是利用多核 CPU 加速数据加载,避免 GPU 训练时等待数据; 取值需匹配 CPU
核心数,并非越大越好,否则会增加开销或导致内存不足。

解决办法

点击‘预览命令’查看命令,可以看到命令中 --preprocessing_num_workers 16 `

在这里插入图片描述

先把之前运行网页的llamafactory-cli webui的进程停了⚠️⚠️⚠️
再把命令复制到cmd执行,执行前把–preprocessing_num_workers 改小

在这里插入图片描述


看到以下界面说明已经在跑了

在这里插入图片描述


跑完之后再运行网页的llamafactory-cli webui的进程
再进到网页查看刚才的训练参数可以选择导出了

在这里插入图片描述

Read more

Stable Diffusion v1.5技术解密:从创意到商业化的AI图像生成革命

Stable Diffusion v1.5技术解密:从创意到商业化的AI图像生成革命 【免费下载链接】stable_diffusion_v1_5Stable Diffusion is a latent text-to-image diffusion model capable of generating photo-realistic images given any text input. 项目地址: https://ai.gitcode.com/openMind/stable_diffusion_v1_5 还在为AI图像生成的复杂技术而头疼吗?想要快速掌握这个价值数十亿美元市场背后的核心技术吗?今天,我将带你深入Stable Diffusion v1.5的技术内核,揭秘它如何从实验室走向商业化应用的完整路径。无论你是技术开发者、内容创作者还是企业决策者,这篇文章都将成为你进入AIGC世界的通行证 🚀 开篇:AI图像生成的三大痛点与解决方案 在深入技术细节之前,

七大AIGC测试工具横向评测:赋能软件测试的AI利器

七大AIGC测试工具横向评测:赋能软件测试的AI利器

在AI技术迅猛发展的2025年,AIGC(人工智能生成内容)工具已深度融入软件测试领域,显著提升测试效率和质量。本次评测聚焦七大主流工具:CodeWhisperer、GitHub Copilot、Testim、Selenium AI、Test.ai、Mabl和Functionize。评测基于实际测试场景(如Web/API测试、移动端兼容性验证),从核心功能、优缺点、适用性及成本四维度展开。目标是为测试工程师提供数据驱动的决策参考。评测方法包括工具实测(使用Python/Java测试脚本)、用户反馈分析(来源Stack Overflow和GitHub议题)及性能基准测试(错误检测率、执行速度)。以下是详细横向比较。 一、工具核心功能与评测结果 1. Amazon CodeWhisperer * 功能亮点:基于AWS的AI代码助手,专精于测试脚本生成。支持Python、Java等语言,能自动补全测试用例(如Selenium脚本),并集成漏洞扫描。实测中,生成100行测试代码的平均时间仅5秒,错误率低于5%。 * 优点:

paperxie 毕业论文:解锁硕士学位通关密码,智能写作工具让学术创作不再难

paperxie 毕业论文:解锁硕士学位通关密码,智能写作工具让学术创作不再难

paperxie-免费查重复率aigc检测/开题报告/毕业论文/智能排版/文献综述/aippt https://www.paperxie.cn/ai/dissertationhttps://www.paperxie.cn/ai/dissertationhttps://www.paperxie.cn/ai/dissertation 当深夜的台灯下堆满了文献,当脑海里的研究思路始终无法转化为严谨的文字,每一位正在为硕士毕业论文奋斗的学子,都曾陷入过这种焦虑与迷茫。一篇合格的硕士论文,不仅是学术能力的证明,更是通往学位的 “通关文牒”,其写作过程往往需要投入数月的心血,从选题、文献综述到数据分析、结论撰写,任何一个环节都容不得半点马虎。如今,paperxie 凭借其深度适配硕士论文需求的智能写作功能,正在重新定义学术写作的体验,让这场 “攻坚战” 变得更高效、更从容。 一、精准匹配硕士论文需求,从源头规避学术风险 不同于本科论文,硕士毕业论文在学术深度、研究方法和规范严谨性上都有更高的要求。paperxie

FLUX.1-dev-fp8-dit文生图完整流程:ComfyUI界面操作+节点连接+图片尺寸设置+执行监控

FLUX.1-dev-fp8-dit文生图完整流程:ComfyUI界面操作+节点连接+图片尺寸设置+执行监控 本文面向想要快速上手FLUX.1-dev-fp8-dit文生图模型的用户,通过ComfyUI界面操作和节点连接,让你在10分钟内掌握从输入文字到生成高质量图片的完整流程。 1. 环境准备与工作流选择 开始使用FLUX.1-dev-fp8-dit模型前,确保你已经运行了ComfyUI环境。这个环境提供了直观的图形化界面,让文生图操作变得简单直观。 进入ComfyUI后,在左侧工作流列表中找到并选择"FLUX.1-dev-fp8-dit文生图"工作流。这个预置的工作流已经帮你配置好了所有必要的节点和连接,无需从零开始搭建,大大降低了使用门槛。 选择工作流后,界面会自动加载所有相关节点,包括文本输入、模型加载、图像生成等模块。这些节点之间已经通过连线建立了正确的工作流程,你只需要关注几个关键参数的设置即可。 2. 提示词输入与风格选择 在加载的工作流中,找到名为"SDXL Prompt Styler"的节点。这是你与模型交互的主要入口,通过这里输入文字描述来控制生成