LLaMA-Factory环境配置与WebUI启动全攻略:从CUDA适配到依赖踩坑

最近在本地部署LLaMA-Factory时,踩了一连串环境配置的坑——从GitHub克隆失败、CUDA不可用到虚拟环境依赖缺失,最终成功启动WebUI。这篇文章就把完整的排错过程和解决方案整理出来,希望能帮到遇到类似问题的同学。

一、问题背景:本地部署LLaMA-Factory的核心诉求

目标是在Windows 10环境下,基于Anaconda创建虚拟环境,部署LLaMA-Factory并启动WebUI,利用本地NVIDIA MX230显卡(2GB显存)实现GPU加速。但从克隆仓库开始,就遇到了一系列报错,主要涉及三类问题:

  • 仓库克隆失败(GitHub连接重置、Gitee 403权限拒绝);
  • PyTorch CUDA支持缺失(报“Torch not compiled with CUDA enabled”);
  • 虚拟环境依赖缺失(直接运行WebUI报“ModuleNotFoundError: No module named 'torch'”)。

二、核心报错解析与分步解决方案

坑1:仓库克隆失败——网络限制与镜像选择

报错现象

从GitHub克隆时提示连接重置,从某Gitee镜像克隆时提示403权限拒绝:

(base) PS E:\pc-project> git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git Cloning into 'LLaMA-Factory'... fatal: unable to access 'https://github.com/hiyouga/LLaMA-Factory.git/': Recv failure: Connection was reset (base) PS E:\pc-project> git clone https://gitee.com/qzl9999/LLaMA-Factory.git Cloning into 'LLaMA-Factory'... remote: [session-6b44feb3] Access denied fatal: unable to access 'https://gitee.com/qzl9999/LLaMA-Factory.git/': The requested URL returned error: 403
原因分析

GitHub克隆失败是国内网络访问限制导致;Gitee 403是因为选择的镜像仓库权限设置问题(非公开可克隆)。

解决方案

优先选择GitHub国内镜像站,配合Git网络配置优化;备选方案使用官方维护的Gitee镜像:

# 1. 配置Git超时与网络参数(避免连接超时) git config --global http.lowSpeedLimit 0 git config --global http.lowSpeedTime 999999 git config --global http.timeout 300 # 2. 使用GitHub镜像站克隆(推荐) git clone --depth 1 https://github.91chi.fun/https://github.com/hiyouga/LLaMA-Factory.git # 3. 备选:使用Gitee官方维护镜像 rm -rf LLaMA-Factory # 删除之前失败的文件夹 git clone https://gitee.com/mirrors_LLaMA-Factory/LLaMA-Factory.git

如果Git命令仍失败,可直接手动下载源码压缩包:访问https://github.com/hiyouga/LLaMA-Factory/archive/refs/heads/main.zip,解压后重命名为“LLaMA-Factory”即可。

坑2:CUDA不可用——PyTorch版本错配

报错现象

进入Python交互环境,调用torch.cuda相关函数时报错:

>>> import torch >>> torch.cuda.current_device() Traceback (most recent call last): File "<stdin>", line 1, in <module> File "...\torch\cuda\__init__.py", line 403, in _lazy_init raise AssertionError("Torch not compiled with CUDA enabled") AssertionError: Torch not compiled with CUDA enabled

查看PyTorch编译配置,发现USE_CUDA=0(纯CPU版本):

PyTorch编译配置: PyTorch built with: ... - Build settings: ... USE_CUDA=0, ...
原因分析

默认安装的是纯CPU版本的PyTorch,而本地有NVIDIA MX230显卡(支持CUDA 12.5),需要安装带CUDA支持的PyTorch版本。

解决方案

步骤1:先确认本地显卡与CUDA支持情况

# 在PowerShell中执行,查看显卡信息 nvidia-smi

输出显示显卡为NVIDIA GeForce MX230,驱动版本556.12,支持CUDA 12.5,确认硬件支持GPU加速。

步骤2:卸载纯CPU版本PyTorch,安装适配CUDA 12.5的版本

# 1. 激活llama_factory虚拟环境 conda activate llama_factory # 2. 卸载CPU版PyTorch pip uninstall torch -y pip cache purge # 清理缓存,避免安装冲突 # 3. 安装适配CUDA 12.5的PyTorch(cu124版本兼容CUDA 12.5) pip install torch==2.4.0 torchvision==0.19.0 torchaudio==2.4.0 --index-url https://download.pytorch.org/whl/cu124

步骤3:验证CUDA是否可用

>>> import torch >>> print("CUDA是否可用:", torch.cuda.is_available()) # 输出True即成功 >>> print("GPU名称:", torch.cuda.get_device_name(0)) # 输出NVIDIA GeForce MX230 >>> print("PyTorch版本:", torch.__version__) # 输出2.4.0+cu124

坑3:依赖缺失——虚拟环境未激活

报错现象

直接用base环境的Python运行webui.py,提示缺少torch模块:

(base) PS E:\pc-project\LLaMA-Factory> & D:/python/miniconda3/python.exe e:/pc-project/LLaMA-Factory/src/webui.py Traceback (most recent call last): File "e:\pc-project\LLaMA-Factory\src\webui.py", line 7, in <module> from llamafactory.extras.misc import fix_proxy, is_env_enabled File "e:\pc-project\LLaMA-Factory\src\llamafactory\extras\misc.py", line 23, in <module> import torch ModuleNotFoundError: No module named 'torch'
原因分析

Anaconda的base环境与llama_factory虚拟环境相互隔离,torch等依赖只安装在llama_factory环境中,base环境中没有这些依赖,导致报错。

解决方案

核心是“先激活虚拟环境,再运行脚本”,提供两种可行方式:

方式1:激活环境后运行(推荐)

# 1. 激活llama_factory虚拟环境 conda activate llama_factory # 2. 切换到LLaMA-Factory根目录 cd E:\pc-project\LLaMA-Factory # 3. 运行webui.py(适配2GB显存,添加优化参数) python src/webui.py --device cuda:0 --load_in_4bit --use_gradient_checkpointing

方式2:直接调用虚拟环境的Python(无需手动激活)

# 直接指定llama_factory环境的Python路径 & D:/python/miniconda3/envs/llama_factory/python.exe e:/pc-project/LLaMA-Factory/src/webui.py --device cuda:0 --load_in_4bit --use_gradient_checkpointing

参数说明:

  • --device cuda:0:指定使用第0号GPU(本地MX230);
  • --load_in_4bit:4比特量化加载模型,大幅降低显存占用;
  • --use_gradient_checkpointing:梯度检查点,进一步节省显存。

坑4:WebUI启动无响应——低显存适配

问题现象

执行启动命令后,终端无响应或长时间无输出。

原因分析

MX230显卡仅2GB显存,默认启动方式显存占用过高,导致静默崩溃;或首次启动需加载依赖,过程较慢。

解决方案

添加日志输出参数查看进度,同时进一步优化显存占用:

python src/webui.py --device cuda:0 --load_in_4bit --use_gradient_checkpointing --offload_folder ./offload --verbose

参数说明:

  • --offload_folder ./offload:将部分模型数据卸载到硬盘,牺牲少量速度换显存;
  • --verbose:打印启动日志,清晰看到加载进度(如“Loading tokenizer...”“Initializing model...”)。

启动成功后,终端会显示访问地址(如http://127.0.0.1:7860),打开浏览器即可进入WebUI。

三、避坑总结与关键提醒

  1. 环境隔离是核心:Anaconda虚拟环境必须激活后使用,所有依赖安装和脚本运行都要在目标环境中进行,避免混用base环境;
  2. CUDA版本要匹配:安装PyTorch前先通过nvidia-smi确认显卡支持的CUDA版本,选择兼容的PyTorch-CUDA版本(如CUDA 12.5适配cu124版本);
  3. 低显存显卡需优化:2GB显存仅能运行小模型(如LLaMA-3-8B 4bit、Qwen-1.8B),必须添加--load_in_4bit等量化参数,否则会显存不足;
  4. 日志是排错关键:遇到无响应或报错时,添加--verbose参数查看详细日志,快速定位问题所在。

四、最终成功启动流程(一键复制)

# 1. 激活虚拟环境 conda activate llama_factory # 2. 切换到项目根目录 cd E:\pc-project\LLaMA-Factory # 3. 优化参数启动WebUI python src/webui.py --device cuda:0 --load_in_4bit --use_gradient_checkpointing --offload_folder ./offload --verbose

按照以上步骤,就能顺利解决LLaMA-Factory部署过程中的克隆、CUDA适配、依赖缺失等问题,成功启动WebUI。如果遇到其他报错,建议优先查看终端日志,重点关注“网络连接”“显存占用”“依赖版本”这三个核心点,大部分问题都能迎刃而解。

Read more

基于Java的百度地图路线规划服务开发全攻略

基于Java的百度地图路线规划服务开发全攻略

目录 前言 一、驾车路线服务简介 1、百度路线规划服务 2、驾车路线服务 3、请求参数 4、响应参数 二、UniHttp接口访问集成 1、访问接口创建 2、本地调用测试 3、响应对象初探 三、响应对象的Java封装 1、驾车路线服务响应类图 2、响应对象实现         a、公共属性类         b、驾车路线数据传输类 c、导航信息类         d、具体路线分段信息类 3、使用GSON转换实例 四、常见问题 1、坐标顺序问题 2、坐标格式问题 五、总计 前言         在当今数字化时代,地理信息系统(GIS)技术已经深入到我们生活的方方面面。无论是日常出行规划、

By Ne0inhk
Java外功基础(1)——Spring Web MVC

Java外功基础(1)——Spring Web MVC

1.前置知识 1.1 Tomcat 定义:Tomcat是一个开源的轻量级Web(Http)服务器和Servlet容器。它实现了Java Servlet等Java EE规范的核心功能,常用于部署和运行Java Web应用程序 。换言之,Tomcat就是一个严格遵循Servlet规范开发出来的、可以独立安装和运行的Java Web服务器/Servlet容器核心功能:Servlet容器:支持Servlet的执行,处理HTTP请求和响应Web服务器:提供静态资源(如HTML)的访问能力,支持基本的HTTP服务安装与版本对应: tomcat官网:Apache Tomcat®目录结构:bin:存放可执行文件,如startup.batconf:存放配置文件lib:存放Tomcat运行所需的jar文件logs:存储日志文件temp:存放临时文件,如上传的文件或缓存数据webapps:默认web应用部署目录work:服务器的工作目录,存放运行时生成的临时文件(编译文件) 1.2 Servlet 1.2.1 定义

By Ne0inhk
模仿淘宝购物系统的Java Web前端项目(开源项目)

模仿淘宝购物系统的Java Web前端项目(开源项目)

提示:此项目仅作为本博主的学习笔记记录,不作为商品售卖,资源往下翻看源码获取 文章目录 * 前言 * Web端功能设计 * 首页 * 热销商品 * 新到商品 * 商品分类 * 商品详情 * 购物车 * 添加地址 * 提交订单 * 部分代码展示 * 可能会出现的错误 * 如果拿到项目后发现图片不显示 * 源码获取 前言 提示:这里可以添加本文要记录的大概内容: 本项目要求完成Java Web的开发环境准备,以及项目开发框架的搭建 Web开发环境准备,包括eclipse、MySQL、tomcat Web项目框架搭建,涉及jsp、servlet、MVC等技术 运行网址:http://localhost:8080/eshop0/index.action 提示:以下是本篇文章正文内容,下面案例可供参考 Web端功能设计 首页 热销商品 新到商品 商品分类 商品详情 ![在这里

By Ne0inhk
一文读懂 Skills:什么是 Skills?如何使用?以及如何用 Skill 生成一个 Java 方法

一文读懂 Skills:什么是 Skills?如何使用?以及如何用 Skill 生成一个 Java 方法

一、什么是 Skills? 在 AI 与智能编程工具中,Skill(技能) 可以理解为: 对某一类任务的“能力封装”或“可复用指令单元” 它不是一次性的 Prompt,而是经过抽象、总结、可以**反复使用 **的能力描述。 用一句话解释 Skill * Prompt:一次性提问 * Skill:可以反复调用的“能力模板” 例如: * 生成一个 Java Getter 方法 * 根据接口文档生成 Controller 代码 * 把自然语言需求转换成 SQL * 为已有方法补充 Javadoc 注释 这些都可以被定义为一个 Skill。 二、为什么要使用 Skills? 在实际开发中,常见问题包括: * 每次都要重新描述需求 * AI 输出风格不统一

By Ne0inhk