LLaMA-Factory安装教程(详细版)

LLaMA-Factory安装教程(详细版)

本机显卡双3090

使用wsl中ubuntu

torch==2.6.0

conda==24.5.0

cuda==12.4

python==3.12.4(python安装不做赘述,有需要我会另开一篇文章)

一、准备工作

首先,在 https://developer.nvidia.com/cuda-gpus 查看您的 GPU 是否支持CUDA。

保证当前 Linux 版本支持CUDA. 在命令行中输入 

 uname -m && cat /etc/*release

输出如下,不一定完全一样,类似即可

检查是否安装了 gcc . 在命令行中输入 gcc --version ,应当看到类似的输出

二、pytorch和cuda安装

使用官网版本2.6.0   官网链接:Previous PyTorch Versions   箭头一栏可以看到历史版本

根据其指令安装对应版本

# ROCM 6.1 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.1 # ROCM 6.2.4 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.2.4 # CUDA 11.8 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu118 # CUDA 12.4 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124 # CUDA 12.6 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu126 # CPU only pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cpu

三、校检torch和cuda版本

安装完查看自己的torch版本

conda list

cuda版本则需要进入python

import torch print(torch.version.cuda)

四、LLaMA-Factory 安装

运行以下指令以安装 LLaMA-Factory 及其依赖:

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e ".[torch,metrics]"

五、LLaMA-Factory 校验

完成安装后,可以通过使用以下命令。

llamafactory-cli version

如果您能成功看到类似下面的界面,就说明安装成功了。

六、LLaMA-Factory 网页版

LLaMA-Factory 支持通过 WebUI 零代码微调大语言模型。 在完成 安装 后,通过以下指令进入 WebUI:

llamafactory-cli webui

其中 http://127.0.0.1:7860就是你的可视化网址。

注:该网址只限于本机使用,如需联网多人服务器使用则需使用内网穿透。

ps.需要更详细的LLaMA-Factory参数详解,请点击关注催更留言,觉得内容不错留个赞再走吧,您的认可就是我更新的动力。

Read more

堪称全网最详细的前端面试八股文,面试必备(附答案)

面试官翻开你的简历时,已经在心里问出了这三个问题,而大多数人倒在了第二个。 作为面试过近200名前端工程师的技术负责人,我见过太多候选人带着漂亮的简历走进会议室——Vue/React全家桶倒背如流、项目经历写得满满当当、算法题刷了成百上千道。 可当我开始问「为什么选择这个架构方案」、「如果让你重新设计这个组件会怎么做」、「这个技术决策背后的业务逻辑是什么」 时,超过60% 的候选人都会出现短暂的沉默。 前端面试早已不是「背API就能过」的时代了。今天的面试官想看到的,是框架背后的设计思维、是业务场景下的技术决策逻辑、是代码之外的工程化素养。 这篇文章将彻底拆解前端面试中的核心八股文,但不止于标准答案——我会带你还原每一个技术问题背后的真实考察意图,并附上能让面试官眼前一亮的深度解析。 全文目录: 1.JavaScript面试题(323题) 2.CSS面试题(61题) 3.HTML面试题(57题) 4.React面试题(83题) 5.Vue面试题(80题) 5.算法面试题(19题) 7.计算机网络(71题) 8.

前端异常监控:如何捕获并上报JS错误与白屏?

前端异常监控:如何捕获并上报JS错误与白屏? 引言 在现代前端开发中,用户体验是衡量产品成功与否的关键指标。然而,前端应用运行在复杂多变的环境中,浏览器差异、网络问题、设备性能等因素都可能导致各种异常情况的发生。如何及时发现并解决这些问题,成为前端工程师面临的重要挑战。 本文将深入探讨前端异常监控的核心技术,包括JS错误捕获、白屏监控以及错误上报机制,帮助开发者构建更加稳定可靠的前端应用。 一、JS错误捕获技术 1.1 try-catch 语句 最基础的错误捕获方式是使用 try-catch 语句,它可以捕获代码块中同步执行的错误: /** * 捕获同步代码错误 * @param {Function} fn - 要执行的函数 * @param {Function} fallback - 错误处理函数 * @returns {any} 函数执行结果 */functionsafeExecute(fn, fallback){try{returnfn();}catch(error){ console.error('

从零开始:在本地搭建一个带知识库的 AI 助手(Ollama + Open WebUI)

从零开始:在本地搭建一个带知识库的 AI 助手(Ollama + Open WebUI)

一文讲清楚:要选哪些工具、需要什么环境、整体架构长什么样,以及一步步实现到能用的程度。 一、为什么要在本地搭一个 AI 助手? 过去一年,大模型从“新奇玩意儿”迅速变成“日常生产力工具”。但如果你只用网页版 ChatGPT / 文心一言 / 通义千问,会碰到几个很现实的问题: * 数据隐私:公司内部文档、个人笔记、聊天记录,你敢全部塞到线上吗? * 网络依赖:在飞机上、高铁里,或者公司内网严格管控时,在线 AI 直接“失联”。 * 额度与费用:免费额度有限,稍微重度一点就要付费,而且你也不知道自己的数据会不会被拿去训练。 本地部署一套 “AI + 知识库” 的好处就非常直观: 1. 数据完全不出本地,满足隐私合规要求。 2. 断网也能用,随时随地调取你的“第二大脑”。 3. 可定制:可以给团队搭一个“

【测试理论与实践】(十)Web 项目自动化测试实战:从 0 到 1 搭建博客系统 UI 自动化框架

【测试理论与实践】(十)Web 项目自动化测试实战:从 0 到 1 搭建博客系统 UI 自动化框架

目录 前言 一、项目背景与测试规划:先明确 "测什么" 和 "怎么测" 1.1 项目介绍 1.2 测试目标 1.3 测试范围与用例设计 编辑 二、环境搭建:3 步搞定自动化测试前置准备 2.1 安装核心依赖包 2.2 浏览器配置 2.3 项目目录结构设计 三、核心模块开发:封装公共工具,提高代码复用性 3.1 驱动管理与截图工具封装(common/Utils.py) 3.2 代码说明与优化点 四、测试用例开发: