LLaMA-Factory安装教程(详细版)

LLaMA-Factory安装教程(详细版)

本机显卡双3090

使用wsl中ubuntu

torch==2.6.0

conda==24.5.0

cuda==12.4

python==3.12.4(python安装不做赘述,有需要我会另开一篇文章)

一、准备工作

首先,在 https://developer.nvidia.com/cuda-gpus 查看您的 GPU 是否支持CUDA。

保证当前 Linux 版本支持CUDA. 在命令行中输入 

 uname -m && cat /etc/*release

输出如下,不一定完全一样,类似即可

检查是否安装了 gcc . 在命令行中输入 gcc --version ,应当看到类似的输出

二、pytorch和cuda安装

使用官网版本2.6.0   官网链接:Previous PyTorch Versions   箭头一栏可以看到历史版本

根据其指令安装对应版本

# ROCM 6.1 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.1 # ROCM 6.2.4 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.2.4 # CUDA 11.8 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu118 # CUDA 12.4 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124 # CUDA 12.6 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu126 # CPU only pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cpu

三、校检torch和cuda版本

安装完查看自己的torch版本

conda list

cuda版本则需要进入python

import torch print(torch.version.cuda)

四、LLaMA-Factory 安装

运行以下指令以安装 LLaMA-Factory 及其依赖:

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e ".[torch,metrics]"

五、LLaMA-Factory 校验

完成安装后,可以通过使用以下命令。

llamafactory-cli version

如果您能成功看到类似下面的界面,就说明安装成功了。

六、LLaMA-Factory 网页版

LLaMA-Factory 支持通过 WebUI 零代码微调大语言模型。 在完成 安装 后,通过以下指令进入 WebUI:

llamafactory-cli webui

其中 http://127.0.0.1:7860就是你的可视化网址。

注:该网址只限于本机使用,如需联网多人服务器使用则需使用内网穿透。

ps.需要更详细的LLaMA-Factory参数详解,请点击关注催更留言,觉得内容不错留个赞再走吧,您的认可就是我更新的动力。

Read more

【AIGC】COT思维链:让AI学会拆解问题,像人一样思考

【AIGC】COT思维链:让AI学会拆解问题,像人一样思考

COT思维链 * 引言 * 理解实践 * 存疑例子 * COT解决 * 内置COT * COT的优势 * COT的未来展望: * 结语 引言 在人工智能领域,我们一直在追求让机器像人类一样思考。然而,即使是最先进的AI,也常常被诟病缺乏“常识”,难以理解复杂问题,更不用说像人类一样进行逻辑推理和解决问题了。最经常的表现就是遇到不会的地方,或者一些人一眼能看出来的地方AI在那里胡扯。 为了解决这个问题,一种名为“思维链(Chain of Thought, COT)”的技术应运而生。COT的核心思想是:将复杂问题分解成一系列简单的子问题,并逐步推理出最终答案。 这就像人类在解决问题时,会先将问题拆解成一个个小步骤,然后一步步推理,最终得出结论。 理解实践 存疑例子 为了理解COT我们先来看个例子。经典的数strawberry里面的r有几个 from langchain_openai import ChatOpenAI from langchain.chains import LLMChain from

By Ne0inhk

AI绘画新手必看:Face Fusion融合技巧,5分钟快速入门

AI绘画新手必看:Face Fusion融合技巧,5分钟快速入门 你是不是也和我一样,是个热爱插画创作的美术人?最近AI绘画火得一塌糊涂,朋友圈里大家都在晒“AI+手绘”作品,风格独特、效率翻倍。你也想试试,朋友还特别推荐了一个叫 Face Fusion 的工具,说它能做超自然的人脸风格迁移——比如把你画的角色脸,换成梵高笔触、赛博朋克风,甚至皮克斯动画感! 可当你兴冲冲下载软件,发现自己的Mac Mini根本跑不动——没独立显卡,CUDA不支持,安装教程全是命令行,论坛里一堆人在抱怨“配置失败”“显存不足”“Python报错”。那一刻,你是不是开始怀疑:这玩意儿真的适合我们普通人吗?难道AI辅助创作,只有程序员和高端PC玩家才能玩? 别急,今天我就来告诉你一个零门槛上手Face Fusion的方法,不用买新电脑、不用装Docker、不用懂代码,5分钟就能启动Web界面,直接上传图片做融合。关键是你用的还是真正的GPU加速环境,效果流畅、生成快、质量高。

By Ne0inhk
vs code 中内置的聊天是 GitHub Copilot Chat 吗

vs code 中内置的聊天是 GitHub Copilot Chat 吗

vs code 中内置的聊天是 GitHub Copilot Chat 吗 vs code 中内置的聊天要分情况讨论: 1. VS Code 内置的聊天(“Ask Cody”):不是 GitHub Copilot Chat VS Code 在 2023 年底(1.85 版本)引入了一个内置的聊天侧边栏,它的默认提供者是 VS Code 自己的 AI 助手 “Cody”。 * 这个功能是 VS Code 编辑器的一部分,图标通常是一个对话框气泡 💬。 * 它的目标是提供与编辑器深度集成的通用编程帮助,例如解释代码、生成代码、问答等。 * 它不一定与你的 GitHub Copilot 订阅绑定,即使你没有订阅

By Ne0inhk

MusePublic Art Studio镜像免配置:开箱即用的开源AI绘画工具部署

MusePublic Art Studio镜像免配置:开箱即用的开源AI绘画工具部署 1. 为什么这款AI绘画工具值得你立刻试试? 你有没有过这样的体验:看到别人用AI生成惊艳画作,自己也想动手,却卡在第一步——安装、配置、环境报错、显存不足……折腾半天,连界面都没打开。 MusePublic Art Studio 就是为解决这个问题而生的。 它不是又一个需要你敲几十行命令、改七八个配置文件、查三天文档才能跑起来的项目。它是一台“拆箱即画”的数字画板:镜像已预装全部依赖,SDXL模型权重已内置,Streamlit前端已就绪,GPU加速已调优。你只需要执行一条命令,刷新浏览器,就能开始创作。 这不是概念演示,也不是简化版玩具——它背后是完整的 Stable Diffusion XL 架构,支持 1024×1024 高清输出、负向提示词过滤、种子锁定、CFG 精细调控等专业能力。但所有这些,都被藏在了一层极简的“

By Ne0inhk