【AI】基于 LLaMa-Factory 和 LoRA 算法的大模型微调

【AI】基于 LLaMa-Factory 和 LoRA 算法的大模型微调

目录

1.Windows

2.Linux

3.微调操作(待更新)


1.Windows

LLaMA-Factory 的 Github地址:https://github.com/hiyouga/LLaMA-Factory

克隆仓库(我的windows目录是D:\Program Files\LLaMa-Factory,linux可以直接在根目录克隆)

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

切换到项目目录

cd LLaMA-Factory

修改配置,将 conda 虚拟环境安装到数据盘

(如果你已经配置过则不用这步)

mkdir -p "D:\Program Files\conda\pkgs" conda config --add pkgs_dirs "D:\Program Files\conda\pkgs" mkdir -p "D:\Program Files\conda\envs" conda config --add envs_dirs "D:\Program Files\conda\envs"

或者直接去c盘修改配置(C:\Users\Administrator\.condarc)

按下win键,输入Anaconda Prompt,用管理员打开

(如果你已经将conda放到环境变量,就在当前目录操作即可)

创建 conda 虚拟环境(一定要 3.10 的 python 版本,不然和 LLaMA-Factory 不兼容)

conda create -n llama-factory python=3.10

接受所有条款,然后重新执行上述操作

conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/main conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/r conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/msys2

激活环境

conda activate llama-factory

下载依赖

pip install -e ".[torch,metrics]"

从错误信息可以看出两个主要问题:

  1. SSL证书验证失败:无法通过HTTPS连接到PyPI下载setuptools
  2. pip版本过旧:您使用的是pip 20.3.1,而最新版本是25.0.1

报错的话就先激活环境,同时一定要初始化(当前目录或者是Anaconda Prompt)

conda init

重新下载依赖即可

如果还报错

改一下版本即可:

conda create -n llama-factory-py311 python=3.11 source ~/.bashrc

下载完成

检验是否安装成功

llamafactory-cli version

启动 LLama-Factory 的可视化微调界面 (由 Gradio 驱动)

llamafactory-cli webui

访问LLaMA Factory (QXC-20250903GVX)

这里我们需要新开一个终端(D:\Program Files\LLaMa-Factory输入cmd),记得要先激活llama-factory环境

创建文件夹统一存放所有基座模型

mkdir "D:\Program Files\hugging-face"

修改 HuggingFace 的镜像源

set HF_ENDPOINT=https://hf-mirror.com

修改模型下载的默认位置

set "HF_HOME=D:\Program Files\hugging-face"

这种配置方式只在当前 shell 会话中有效,如果你希望这个环境变量在每次启动终端时都生效,可以执行以下操作(但没必要)

setx HF_ENDPOINT "https://hf-mirror.com" setx "HF_HOME=D:\Program Files\hugging-ace" 

检查环境变量是否生效

echo %HF_ENDPOINT% echo %HF_HOME%

安装 HuggingFace 官方下载工具

pip install -U huggingface_hub

下载可能会报如下错误,这是因为 hugging-face 的版本太高了,安装低版本的就可以了

安装低版本,再次执行上述操作即可

pip install "huggingface_hub<1.0"

执行下载命令

huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

下载之后就可以直接开始微调了

2.Linux

大部分操作跟windows一样

克隆仓库(我的windows目录是D:\Program Files\LLaMa-Factory,linux可以直接在根目录克隆)

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

切换到项目目录

cd LLaMA-Factory

修改配置,将 conda 虚拟环境安装到数据盘

(如果你已经配置过则不用这步)

mkdir -p /root/autodl-tmp/conda/pkgs conda config --add pkgs_dirs /root/autodl-tmp/conda/pkgs mkdir -p /root/autodl-tmp/conda/envs conda config --add envs_dirs /root/autodl-tmp/conda/envs

以管理员方式打开Anacnoda Prompt (如果你已经将conda放到环境变量,就在当前目录操作即可)

创建 conda 虚拟环境(一定要 3.10 的 python 版本,不然和 LLaMA-Factory 不兼容,如果后面下载包报错的话就用3.11)

conda create -n llama-factory python=3.10

如有需要,接受所有条款,然后重新执行上述操作

conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/main conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/r conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/msys2

激活环境

conda activate llama-factory

下载依赖

pip install -e ".[torch,metrics]"

报错的话就先激活环境,同时一定要初始化(当前目录或者是Anaconda Prompt),重新执行上述命令

conda init

 检验是否安装成功

llamafactory-cli version

 启动 LLama-Factory 的可视化微调界面 (由 Gradio 驱动)

llamafactory-cli webui

访问LLaMA Factory (QXC-20250903GVX)

这里我们需要新开一个终端,记得要先激活llama-factory环境,同时要在~/autodl-tmp目录下

创建文件夹统一存放所有基座模型

mkdir hugging-face

修改 HuggingFace 的镜像源

export HF_ENDPOINT=https://hf-mirror.com

修改模型下载的默认位置

export HF_HOME=/root/autodl-tmp/Hugging-Face

这种配置方式只在当前 shell 会话中有效,如果你希望这个环境变量在每次启动终端时都生效,可以执行以下操作(但没必要)

echo 'export HF_ENDPOINT="https://hf-mirror.com"' >> ~/.bashrc echo 'export HF_HOME="/root/autodl-tmp/hugging-face"' >> ~/.bashrc # 重新加载配置 source ~/.bashrc

检查环境变量是否生效

echo $HF_ENDPOINT echo $HF_HOME

安装 HuggingFace 官方下载工具

pip install -U huggingface_hub

下载可能会报如下错误,这是因为 hugging-face 的版本太高了,安装低版本的就可以了

安装低版本,再次执行上述操作即可

pip install "huggingface_hub<1.0"

执行下载命令

huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

下载之后就可以直接开始微调了

3.微调操作(待更新)

...

Read more

Web技术核心与安全风险(三)Web 后端安全

Web技术核心与安全风险(三)Web 后端安全

PART 1   PHP基本语法PHP介绍PHP(HyperText Preprocessor):超文本预处理器官方网站: https://www.php.net/学习工具:Trae+Phpstudy如何在Trae 中搭建PHP环境1.trae--扩展插件市场里中,搜索PHP,并安装php debug 、php IntelliSense2.在扩展设置里面,配置PHP解释器总共要设置三个,如下图所示,没有的自己创建,路径设为自己电脑里PHP的路径即可PHP基础语法PHP 代码必须包含在 <?php ... ?>标签中。1.打印hello world<?phpecho "hello world";?>语句结束:每条语句以 ;(分号)结束。   注释 //单行注释 /*多行注释*/2.变量命名规则:(1)

uniapp - H5人脸识别认证与活体检测功能(纯前端免费方案+微信sdk人脸识别)完整源码,微信公众号网页/h5端人脸识别功能人脸核身(微信方案提供后端spring boot+thinkphp源码

uniapp - H5人脸识别认证与活体检测功能(纯前端免费方案+微信sdk人脸识别)完整源码,微信公众号网页/h5端人脸识别功能人脸核身(微信方案提供后端spring boot+thinkphp源码

功能介绍 uniApp(vue2 + vue3)语法版本可用,跟着教程操作复制代码。 uni-app h5实现人脸认证+人脸识别+活体检测+人脸核身功能(支持微信公众号网页/微信内置浏览器)uniApp H5端调用手机摄像头并实现人脸识别及各种功能示例,提供免费人脸识别功能与微信官方人脸识别解决方案2种自行选择,微信方案需要后端支持Java(spring boot) + PHP(thinkphp) 业务处理完整源码。 提供详细示例代码,一键复制运行即可。 如下图所示,按照流程及示例代码稍微改下参数! 详细示例 保你搞定 【您订阅专栏后,帮您1对1解决技术难题或BUG排查协助沟通服务】 完整流程及源码

Qwen2.5-7B-Instruct + vLLM推理加速实战|Chainlit前端调用指南

Qwen2.5-7B-Instruct + vLLM推理加速实战|Chainlit前端调用指南 一、前言 随着大语言模型(LLM)在自然语言理解与生成任务中的广泛应用,如何高效部署并快速构建交互式应用成为开发者关注的核心问题。通义千问团队推出的 Qwen2.5-7B-Instruct 模型,在知识广度、编程能力、数学推理和多语言支持方面实现了显著提升,尤其在结构化输出(如 JSON)和长上下文处理(最高达128K tokens)上表现优异。 然而,高性能模型的推理延迟和吞吐瓶颈一直是落地挑战。为此,vLLM 作为当前最主流的大模型推理加速框架之一,通过创新的 PagedAttention 技术,可将推理吞吐提升至 HuggingFace Transformers 的 14–24 倍,极大提升了服务效率。 本文将围绕 Qwen2.5-7B-Instruct + vLLM 推理加速 + Chainlit 前端调用 这一技术栈,完整演示从模型部署到交互式 Web

GLM-Image WebUI免配置教程:Gradio共享链接生成与内网穿透方案

GLM-Image WebUI免配置教程:Gradio共享链接生成与内网穿透方案 1. 项目简介与价值 智谱AI的GLM-Image是一个强大的文本到图像生成模型,能够根据文字描述创作出高质量的AI图像。但很多用户在本地部署后遇到了一个实际问题:生成的精美图片只能自己欣赏,无法方便地分享给朋友或同事。 这就是本文要解决的核心问题——如何在不进行复杂网络配置的情况下,让您的GLM-Image WebUI能够被其他人远程访问。我们将重点介绍两种简单实用的方法:Gradio自带的共享链接功能,以及更稳定的内网穿透方案。 无论您是设计师想要分享创作成果,还是开发者需要向团队成员演示AI生成效果,这篇文章都能帮您快速实现目标。 2. 环境准备与快速启动 在开始配置共享访问之前,请确保您的GLM-Image WebUI已经正常启动并运行。 2.1 检查服务状态 首先通过终端确认WebUI服务是否正常运行: # 检查服务进程 ps aux | grep gradio # 检查端口占用 netstat -tlnp | grep 7860 如果服务未启动,使用项目提供的启动脚本