本文记录在 Windows 10 环境下基于 Anaconda 部署 LLaMA-Factory 并启动 WebUI 的过程,涵盖网络克隆、CUDA 适配及依赖配置等核心问题的排查与解决方案。
一、问题背景:本地部署 LLaMA-Factory 的核心诉求
目标是在 Windows 10 环境下,基于 Anaconda 创建虚拟环境,部署 LLaMA-Factory 并启动 WebUI,利用本地 NVIDIA MX230 显卡(2GB 显存)实现 GPU 加速。但从克隆仓库开始,就遇到了一系列报错,主要涉及三类问题:

