LLaMA-Factory安装教程(详细版)

LLaMA-Factory安装教程(详细版)

本机显卡双3090

使用wsl中ubuntu

torch==2.6.0

conda==24.5.0

cuda==12.4

python==3.12.4(python安装不做赘述,有需要我会另开一篇文章)

一、准备工作

首先,在 https://developer.nvidia.com/cuda-gpus 查看您的 GPU 是否支持CUDA。

保证当前 Linux 版本支持CUDA. 在命令行中输入 

 uname -m && cat /etc/*release

输出如下,不一定完全一样,类似即可

检查是否安装了 gcc . 在命令行中输入 gcc --version ,应当看到类似的输出

二、pytorch和cuda安装

使用官网版本2.6.0   官网链接:Previous PyTorch Versions   箭头一栏可以看到历史版本

根据其指令安装对应版本

# ROCM 6.1 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.1 # ROCM 6.2.4 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.2.4 # CUDA 11.8 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu118 # CUDA 12.4 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124 # CUDA 12.6 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu126 # CPU only pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cpu

三、校检torch和cuda版本

安装完查看自己的torch版本

conda list

cuda版本则需要进入python

import torch print(torch.version.cuda)

四、LLaMA-Factory 安装

运行以下指令以安装 LLaMA-Factory 及其依赖:

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e ".[torch,metrics]"

五、LLaMA-Factory 校验

完成安装后,可以通过使用以下命令。

llamafactory-cli version

如果您能成功看到类似下面的界面,就说明安装成功了。

六、LLaMA-Factory 网页版

LLaMA-Factory 支持通过 WebUI 零代码微调大语言模型。 在完成 安装 后,通过以下指令进入 WebUI:

llamafactory-cli webui

其中 http://127.0.0.1:7860就是你的可视化网址。

注:该网址只限于本机使用,如需联网多人服务器使用则需使用内网穿透。

ps.需要更详细的LLaMA-Factory参数详解,请点击关注催更留言,觉得内容不错留个赞再走吧,您的认可就是我更新的动力。

Read more

VsCode 远程 Copilot 调用 Claude Agent 提示 “无效请求”?参数配置错误的修正

解决 VsCode 远程 Copilot 调用 Claude Agent 提示“无效请求”问题 当在 VsCode 中通过远程 Copilot 调用 Claude Agent 时,若出现“无效请求”错误提示,通常与参数配置错误有关。以下方法可帮助排查和修正问题。 检查 API 密钥配置 确保 Claude Agent 的 API 密钥已正确配置在 VsCode 设置中。打开 VsCode 的设置文件(settings.json),验证以下参数是否完整: "claude.apiKey": "your_api_key_here"

FLUX.1-dev创意工作流:从Midjourney迁移指南+Prompt工程适配最佳实践

FLUX.1-dev创意工作流:从Midjourney迁移指南+Prompt工程适配最佳实践 如果你是从Midjourney转向本地部署的创作者,或者正在寻找一个画质顶尖、永不崩溃的AI绘图方案,那么这篇文章就是为你准备的。 Midjourney以其出色的艺术表现力,成为了许多人的AI绘图启蒙工具。但你是否也遇到过这些问题:生成次数有限制、排队等待时间长、无法深度定制生成参数、或者对生成内容的隐私性有顾虑?当你的创作需求从“玩一玩”升级到“生产力”时,一个稳定、私密、可控的本地化方案就显得尤为重要。 今天,我们将深入探讨如何将你的创意工作流,从Midjourney平滑迁移到FLUX.1-dev旗舰版。这不仅仅是一个工具替换,更是一次创作能力的全面升级。我们将重点解决两个核心问题:如何快速上手这个强大的本地系统,以及如何将你熟悉的Midjourney Prompt技巧,完美适配到FLUX模型上,让你无缝衔接,甚至获得更惊艳的成果。 1. 为什么选择FLUX.1-dev作为你的下一站? 在深入迁移细节之前,我们先来了解一下这个“新家”到底强在哪里。你拿到的这个FLUX.1-de

vscode copilot 的配置文件提示警告

Claude 桌面版竟然是实时的。 vscode copilot 的配置文件提示 [{ “resource”: “/d:/.vscode/User/globalStorage/github.copilot-chat/ask-agent/Ask.agent.md”, “owner”: “prompts-diagnostics-provider”, “severity”: 4, “message”: “未知工具 “github/issue_read”。”, “startLineNumber”: 7, “startColumn”: 51, “endLineNumber”: 7, “endColumn”: 70 },{ “resource”: “/d:/.vscode/User/globalStorage/github.copilot-chat/ask-agent/Ask.agent.md”, “owner”: “prompts-diagnostics-provider”, “severity”: 4, “message”: “未知工具

在昇腾NPU上跑Llama 2模型:一次完整的性能测试与实战通关指南

在昇腾NPU上跑Llama 2模型:一次完整的性能测试与实战通关指南

目录 * 在昇腾NPU上跑Llama 2模型:一次完整的性能测试与实战通关指南 * 引言:从“为什么选择昇腾”开始 * 第一幕:环境搭建——好的开始是成功的一半 * 1.1 GitCode Notebook 创建“避坑指南” * 1.2 环境验证:“Hello, NPU!” * 第二幕:模型部署——从下载到运行的“荆棘之路” * 2.1 安装依赖与模型下载 * 2.2 核心部署代码与“坑”的化解 * 第三幕:性能测试——揭开昇腾NPU的真实面纱 * 3.1 严谨的性能测试脚本 * 3.2 测试结果与分析 * 第四幕:性能优化——让Llama跑得更快 * 4.1 使用昇腾原生大模型框架 * 4.