LLaMA-Factory安装教程(详细版)

LLaMA-Factory安装教程(详细版)

本机显卡双3090

使用wsl中ubuntu

torch==2.6.0

conda==24.5.0

cuda==12.4

python==3.12.4(python安装不做赘述,有需要我会另开一篇文章)

一、准备工作

首先,在 https://developer.nvidia.com/cuda-gpus 查看您的 GPU 是否支持CUDA。

保证当前 Linux 版本支持CUDA. 在命令行中输入 

 uname -m && cat /etc/*release

输出如下,不一定完全一样,类似即可

检查是否安装了 gcc . 在命令行中输入 gcc --version ,应当看到类似的输出

二、pytorch和cuda安装

使用官网版本2.6.0   官网链接:Previous PyTorch Versions   箭头一栏可以看到历史版本

根据其指令安装对应版本

# ROCM 6.1 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.1 # ROCM 6.2.4 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.2.4 # CUDA 11.8 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu118 # CUDA 12.4 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124 # CUDA 12.6 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu126 # CPU only pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cpu

三、校检torch和cuda版本

安装完查看自己的torch版本

conda list

cuda版本则需要进入python

import torch print(torch.version.cuda)

四、LLaMA-Factory 安装

运行以下指令以安装 LLaMA-Factory 及其依赖:

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e ".[torch,metrics]"

五、LLaMA-Factory 校验

完成安装后,可以通过使用以下命令。

llamafactory-cli version

如果您能成功看到类似下面的界面,就说明安装成功了。

六、LLaMA-Factory 网页版

LLaMA-Factory 支持通过 WebUI 零代码微调大语言模型。 在完成 安装 后,通过以下指令进入 WebUI:

llamafactory-cli webui

其中 http://127.0.0.1:7860就是你的可视化网址。

注:该网址只限于本机使用,如需联网多人服务器使用则需使用内网穿透。

ps.需要更详细的LLaMA-Factory参数详解,请点击关注催更留言,觉得内容不错留个赞再走吧,您的认可就是我更新的动力。

Read more

用微信指挥你的 AI 员工:QClaw 给普通人发了一张超级个体的入场券

用微信指挥你的 AI 员工:QClaw 给普通人发了一张超级个体的入场券

昨晚,深圳龙岗区相关部门发布了《深圳市龙岗区支持 OpenClaw&OPC 发展的若干措施(征求意见稿)》公开征询意见公告,也就是大家常说的"龙虾十条"。 大家好,我是小虎。 但当一个地方政府开始为一个开源 AI 项目立专项扶持政策,通常意味着:这件事已经大到用市场语言说不清楚了,必须用政策语言来背书。 OpenClaw 是奥地利开发者 Peter Steinberger 创造的一个开源本地 AI Agent 框架,核心逻辑是把 AI 助手部署在你自己的机器上,通过 Telegram、WhatsApp 这些聊天工具接收指令,然后帮你执行任务。 数据留在本地,算力用自己的,7×24 小时待命。 这个逻辑本身非常先进——但它有一个致命门槛:你得先把它跑起来。 买服务器、命令行配置、设置机器人权限……整个流程对普通人来说不是学习曲线,是一道墙。

5个免费股票数据API实测对比:从AkShare到BaoStock,哪个最适合你的AI量化项目?

5个免费股票数据API深度横评:从AkShare到BaoStock,如何为你的AI量化项目精准“配粮” 在构建一个AI驱动的量化分析项目时,数据源的选择往往比模型算法本身更早地决定了项目的天花板与下限。对于个人开发者、学生研究团队或初创量化小组而言,动辄数万甚至数十万的商业数据接口费用,无疑是横亘在理想与现实之间的一道高墙。幸运的是,开源社区和部分数据平台为我们提供了“零成本”入场的可能。但免费是否意味着廉价?在数据质量、稳定性、易用性之间,我们又该如何权衡? 今天,我们就抛开那些昂贵的商业解决方案,聚焦于五个完全免费的股票数据API:AkShare、BaoStock、Yahoo Finance (via yfinance)、EOD Historical Data 的免费层,以及 Alpha Vantage 的免费API。我们将从数据质量、更新频率、Python集成友好度、社区生态以及隐藏的“成本”等多个维度,进行一场硬核的实测对比。目标只有一个:帮你找到那个最适合你当前项目阶段、技术栈和需求的“免费午餐”。 1. 评测框架与核心考量维度 在深入每个API之前,

【AI开发】—— OpenCode Superpowers 插件安装+使用全指南

【AI开发】—— OpenCode Superpowers 插件安装+使用全指南

OpenCode Superpowers 插件安装+使用全指南|从0到1解锁AI编程工程化能力 最近给OpenCode装了 Superpowers 插件,彻底解决了AI编程“只懂打字、不懂工程”的痛点——它不像普通插件只加基础功能,而是把软件工程最佳实践(TDD、代码审查、重构)植入AI生成逻辑,让AI从“代码工具人”变成真正的工程伙伴。 实测下来,不管是个人开发还是小团队协作,都能显著提升代码质量和开发效率。今天就把详细的安装、验证、使用流程整理出来,新手也能一键上手,全程无坑~ 一、插件介绍:Superpowers 到底能帮我们做什么? 在开始安装前,先简单说下核心价值,避免大家装完不知道怎么用: * ✅ 规范AI开发流程:强制引导AI遵循 TDD(测试驱动开发)、YAGNI 等最佳实践,生成的代码可维护性拉满; * ✅ 技能化拆解任务:内置多种实用技能(头脑风暴、调试、代码审查、重构),按需加载,

2026 Python+AI入门|0基础速通,吃透热门轻量化玩法

2026 Python+AI入门|0基础速通,吃透热门轻量化玩法

🎁个人主页:User_芊芊君子 🎉欢迎大家点赞👍评论📝收藏⭐文章 🔍系列专栏:AI 文章目录: * 一、2026 Python+AI入门,必抓3个热门新趋势 * 二、入门前提:不用啃硬骨头,掌握这2点就够了 * 环境搭建(10分钟搞定,Windows/Mac通用) * 三、3个实战案例 * 案例1:30行代码开发AI文本总结工具(轻量化工具,最易上手) * 案例2:大模型微调入门(Llama 3微调,2026热门) * 案例3:AI自动数据标注(图像标注,企业刚需) * 四、Python+AI入门学习流程图(2026最新,不绕路) * 五、2026新手避坑指南 * 六、总结 【前言】 大家好,我是一名深耕AI入门教学的开发者,