5060ti显卡本地AI训练部署

5060ti显卡本地AI训练部署

前言

前面配置的时候找了很多文章来看,都有着各种奇奇怪怪的问题,本文将记录我配置成功的一次案例供大家参考。2025年11月24日记 这是我第一次实现大模型的微调训练,电脑的配置是显卡NVIDIA GeForce RTX 5060 Ti GPU,训练的是Deep Seek-r1 的 7B 模型如果大家有更好的显卡,可以尝试一下14B。在此非常感谢ZEEKLOG的大佬,在他们的基础上,我的博客进一步完善一些细节,文末会附上大佬的原文链接。那么废话不多说,直接开始!(默认大家有一定的基础)

1.前置条件


1.1 基础配置

(具体的安装和使用教程网上有很多,在这里就不做过多的赘述了)

1. 使用Anaconda(Python的环境管理工具),这样就不需要一个一个单独下载python的版本,并且使用起来很方便。

2. 使用PyCharm(Python的集成开发环境),可以在这里面编辑、运行.py文件等操作。

3. 使用Git(分布式版本控制系统),用于克隆GitHub上的优秀项目,不用也没事,可以直接下载.zip文件。

4. 使用CUDA和cuDNN(用于GPU训练加速),需要注意这里面的版本关系,别下错了。​​​​​​

5.使用PyTorch(深度学习框架),这个版本要与你自己电脑的CUDA版本对应。

以上就是环境配置需要的全部内容,接下来我们就进行项目复刻。

1.2安装anaconda3

这个没什么说的,直接官网上面下载安装包,拉到本地后一直点下一步 ,注意:选择较大的磁盘放置,不建议放系统盘

1.3初始化环境

打开Anaconda Prompt(从Windows开始菜单找到),执行

创建新的虚拟环境

conda create -n llama python=3.10 

激活虚拟环境

conda activate llama

安装支持 sm_120 的 PyTorch(5060ti的CUDA是12.8/12.9,选择支持你们自己电脑的CUDA的版本)

# 先安装PyTorch CUDA版本(官方源),再安装其他依赖(清华源) pip install torch==2.8.0 --index-url https://download.pytorch.org/whl/cu128 pip install torchvision==0.23.0 torchaudio==2.8.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

这个地方我没有跑动,所以采取了下述方法

手动下载 CUDA 12.8 版的 PyTorch whl 包

pip 直接下载官方源容易超时,手动下载是最稳定的方式,步骤如下:打开浏览器,访问 PyTorch 官方 cu128 源的索引页:https://download.pytorch.org/whl/cu128/torch/在页面中找到适配你环境的 whl 包:我的环境是Python 3.10 + Windows AMD64,对应包名是:torch-2.8.0%2Bcu128-cp310-cp310-win_amd64.whl%2B+的 URL 编码,下载后文件名会自动还原)。点击该链接开始下载(文件大小约3.2GB),若浏览器下载慢,可复制链接到迅雷 / IDM等下载工具,利用多线程加速。记住下载的保存路径(比如G:\AI\downloads\C:\Users\Administrator\Downloads\)。



本地安装 CUDA 版 PyTorch

打开命令行(确保已激活llama环境),切换到 whl 包的下载目录,执行本地安装命令:

验证脚本

import torch print("PyTorch版本:", torch.__version__) print("CUDA是否可用:", torch.cuda.is_available()) print("CUDA版本:", torch.version.cuda if torch.cuda.is_available() else "None") if torch.cuda.is_available(): print("GPU设备:", torch.cuda.get_device_name(0)) print("GPU数量:", torch.cuda.device_count())

预期输出:

接下来就是:克隆GitHub项目

#git拉取 pip install -e ".[torch,metrics]" -i https://pypi.tuna.tsinghua.edu.cn/simple/ #或者镜像源直接下 pip install -e ".[torch,metrics]" -i https://pypi.tuna.tsinghua.edu.cn/simple/ 

下载下来后直接pycharm打开

验证(出现版本号就成功了)

llamafactory-cli version

1.4下载大模型

在终端输入如下指令,修改大模型存放位置(选择一个合适足够大的存储位置)

echo $env:HF_HOME = "G:\AI\Hugging-Face"

修改大模型下载位置(这个一般不需要修改)

echo $env:HF_ENDPOINT="https://hf-mirror.com"

安装huggingface_hub(如果第一个下载爆红,可以试试第二个镜像源)

pip install -U huggingface_hub #或者 pip install -U huggingface_hub -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple 

下载训练模型

huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
如果上述有问题可采用这个办法解决:
 右键「此电脑」→「属性」→「高级系统设置」→「环境变量」。在用户变量系统变量中,点击「新建」:变量名HF_ENDPOINT变量值https://hf-mirror.com点击「确定」保存,重启命令行窗口(环境变量生效)。直接执行简化的下载命令即可:

1.5制作训练集(json格式)

 { "messages": [ { "role": "user", "content": [{"type": "text", "value": "hi"}], "loss_weight": 0.0 }, { "role": "assistant", "content": [{"type": "text", "value": "Hello! I am LAP酱, an AI assistant developed by BINGCHN. How can I assist you today with your CTF challenges?"}], "loss_weight": 1.0 } ] }

配置训练集

1.6启动LLama-Factory 的可视化微调界面(http://localhost:7860/)

llamafactory-cli webui

如果报错可以检查一下huggingface-hub版本,建议使用0.34.0

最后就是看后面的东西了

Read more

Qwen3-VL智能写作:图文内容生成实战案例

Qwen3-VL智能写作:图文内容生成实战案例 1. 背景与应用场景 随着多模态大模型的快速发展,视觉-语言理解与生成能力已成为AI应用的核心竞争力之一。在内容创作、自动化办公、智能客服等场景中,用户不再满足于纯文本的交互方式,而是期望系统能够“看图说话”、理解复杂界面并自动生成结构化内容。 阿里云推出的 Qwen3-VL 系列模型正是为应对这一趋势而设计。作为Qwen系列迄今最强的视觉-语言模型,它不仅具备卓越的文本生成能力,还深度融合了图像识别、空间推理、视频理解与GUI操作代理功能,真正实现了“看得懂、想得清、写得出”的闭环。 本文将聚焦于 Qwen3-VL-WEBUI 的实际部署与应用,结合一个典型的“图文内容生成”任务,展示如何利用其内置的 Qwen3-VL-4B-Instruct 模型完成从图像输入到结构化文档输出的全流程实战。 2. Qwen3-VL-WEBUI 简介 2.1 核心特性概述 Qwen3-VL-WEBUI 是基于 Qwen3-VL 模型封装的可视化交互平台,专为开发者和内容创作者设计,支持一键部署、零代码调用和实时推理体验。其核心优势包括:

新手用AI写文章,AI味太重了?收藏这几个提示词瞬间去除AI写作痕迹!

现在很多新入局自媒体的人用AI辅助写作,但是稍有不慎就会被平台限流、封号。究其原因在于AI写的文字太AI风了,所以平台不会给流量! 要去除文章AI痕迹的核心思路是:第一步使用好提示词,好的提示词本身就降低了AI味道;第二步人工优化,在进一步降低AI味的同时还要修正错误和漏洞。 今天我把自己的经验结合起来,分享一下降低AI味的提示词。 一、赋予角色 给定一个具体的角色,比如说你在做育儿领域的爆款文章的时候,就可以给AI赋予一个资深育儿专家的身份。 举例:你是育儿专家,擅长写育儿类自媒体爆款文章。你主要的工作就是写出更有人情味、自然流畅、没有机器写作痕迹的文章,长短句并用,不用列表和总结,少用连接词,内容要打破AI生硬的感觉,在语言风格、情感表达、逻辑结构上全方位地接近人类真实的写作习惯。 二、人物画像 人物画像是对角色的补充,可以指定人物的年龄、性别、爱好等,做IP号的时候,就给AI发一张画像。 例子:语言风格转换专家,对于人类写作的特色有着非常深刻的认识。把AI生成的“冷冰冰”的文字转为通俗易懂、口语化的表达方式。依靠多年的积累,你能够很快地发现AI文本中重复啰嗦的

Jetson Orin NX 上部署 Ollama + Llama 3.2

Jetson Orin NX 上部署 Ollama + Llama 3.2 关键词: Jetson Orin NX, JetPack 5, Ubuntu 20.04, Ollama, Llama 3.2, CUDA, GPU推理, 边缘计算, ARM64 阅读时长: 约15分钟 📋 文章导航 * 前言 * 一、环境准备与系统要求 * 二、系统环境检查 * 三、安装Ollama(JetPack 5专用版) * 四、配置运行环境 * 五、启动Ollama服务与GPU验证 * 六、部署Llama 3.2模型 * 七、HTTP API接口调用 * 八、性能优化与调优

最完整whisperX入门指南:从安装到实现第一个语音识别功能

最完整whisperX入门指南:从安装到实现第一个语音识别功能 【免费下载链接】whisperXm-bain/whisperX: 是一个用于实现语音识别和语音合成的 JavaScript 库。适合在需要进行语音识别和语音合成的网页中使用。特点是提供了一种简单、易用的 API,支持多种语音识别和语音合成引擎,并且能够自定义语音识别和语音合成的行为。 项目地址: https://gitcode.com/gh_mirrors/wh/whisperX 你还在为语音识别工具安装复杂、识别准确率低、时间戳不精准而烦恼吗?本文将带你从零开始,一步步掌握whisperX的安装配置,并实现你的第一个语音识别功能。读完本文,你将能够:搭建稳定的whisperX运行环境、使用命令行和Python API两种方式进行语音识别、获取精准的单词级时间戳、实现多 speaker 区分标注。 whisperX 简介 whisperX 是一个基于 OpenAI Whisper 的语音识别工具,它在 Whisper 的基础上进行了改进,提供了更精准的单词级时间戳和 speaker 区分功能。