5060ti显卡本地AI训练部署

5060ti显卡本地AI训练部署

前言

前面配置的时候找了很多文章来看,都有着各种奇奇怪怪的问题,本文将记录我配置成功的一次案例供大家参考。2025年11月24日记 这是我第一次实现大模型的微调训练,电脑的配置是显卡NVIDIA GeForce RTX 5060 Ti GPU,训练的是Deep Seek-r1 的 7B 模型如果大家有更好的显卡,可以尝试一下14B。在此非常感谢ZEEKLOG的大佬,在他们的基础上,我的博客进一步完善一些细节,文末会附上大佬的原文链接。那么废话不多说,直接开始!(默认大家有一定的基础)

1.前置条件


1.1 基础配置

(具体的安装和使用教程网上有很多,在这里就不做过多的赘述了)

1. 使用Anaconda(Python的环境管理工具),这样就不需要一个一个单独下载python的版本,并且使用起来很方便。

2. 使用PyCharm(Python的集成开发环境),可以在这里面编辑、运行.py文件等操作。

3. 使用Git(分布式版本控制系统),用于克隆GitHub上的优秀项目,不用也没事,可以直接下载.zip文件。

4. 使用CUDA和cuDNN(用于GPU训练加速),需要注意这里面的版本关系,别下错了。​​​​​​

5.使用PyTorch(深度学习框架),这个版本要与你自己电脑的CUDA版本对应。

以上就是环境配置需要的全部内容,接下来我们就进行项目复刻。

1.2安装anaconda3

这个没什么说的,直接官网上面下载安装包,拉到本地后一直点下一步 ,注意:选择较大的磁盘放置,不建议放系统盘

1.3初始化环境

打开Anaconda Prompt(从Windows开始菜单找到),执行

创建新的虚拟环境

conda create -n llama python=3.10 

激活虚拟环境

conda activate llama

安装支持 sm_120 的 PyTorch(5060ti的CUDA是12.8/12.9,选择支持你们自己电脑的CUDA的版本)

# 先安装PyTorch CUDA版本(官方源),再安装其他依赖(清华源) pip install torch==2.8.0 --index-url https://download.pytorch.org/whl/cu128 pip install torchvision==0.23.0 torchaudio==2.8.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

这个地方我没有跑动,所以采取了下述方法

手动下载 CUDA 12.8 版的 PyTorch whl 包

pip 直接下载官方源容易超时,手动下载是最稳定的方式,步骤如下:打开浏览器,访问 PyTorch 官方 cu128 源的索引页:https://download.pytorch.org/whl/cu128/torch/在页面中找到适配你环境的 whl 包:我的环境是Python 3.10 + Windows AMD64,对应包名是:torch-2.8.0%2Bcu128-cp310-cp310-win_amd64.whl%2B+的 URL 编码,下载后文件名会自动还原)。点击该链接开始下载(文件大小约3.2GB),若浏览器下载慢,可复制链接到迅雷 / IDM等下载工具,利用多线程加速。记住下载的保存路径(比如G:\AI\downloads\C:\Users\Administrator\Downloads\)。



本地安装 CUDA 版 PyTorch

打开命令行(确保已激活llama环境),切换到 whl 包的下载目录,执行本地安装命令:

验证脚本

import torch print("PyTorch版本:", torch.__version__) print("CUDA是否可用:", torch.cuda.is_available()) print("CUDA版本:", torch.version.cuda if torch.cuda.is_available() else "None") if torch.cuda.is_available(): print("GPU设备:", torch.cuda.get_device_name(0)) print("GPU数量:", torch.cuda.device_count())

预期输出:

接下来就是:克隆GitHub项目

#git拉取 pip install -e ".[torch,metrics]" -i https://pypi.tuna.tsinghua.edu.cn/simple/ #或者镜像源直接下 pip install -e ".[torch,metrics]" -i https://pypi.tuna.tsinghua.edu.cn/simple/ 

下载下来后直接pycharm打开

验证(出现版本号就成功了)

llamafactory-cli version

1.4下载大模型

在终端输入如下指令,修改大模型存放位置(选择一个合适足够大的存储位置)

echo $env:HF_HOME = "G:\AI\Hugging-Face"

修改大模型下载位置(这个一般不需要修改)

echo $env:HF_ENDPOINT="https://hf-mirror.com"

安装huggingface_hub(如果第一个下载爆红,可以试试第二个镜像源)

pip install -U huggingface_hub #或者 pip install -U huggingface_hub -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple 

下载训练模型

huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
如果上述有问题可采用这个办法解决:
 右键「此电脑」→「属性」→「高级系统设置」→「环境变量」。在用户变量系统变量中,点击「新建」:变量名HF_ENDPOINT变量值https://hf-mirror.com点击「确定」保存,重启命令行窗口(环境变量生效)。直接执行简化的下载命令即可:

1.5制作训练集(json格式)

 { "messages": [ { "role": "user", "content": [{"type": "text", "value": "hi"}], "loss_weight": 0.0 }, { "role": "assistant", "content": [{"type": "text", "value": "Hello! I am LAP酱, an AI assistant developed by BINGCHN. How can I assist you today with your CTF challenges?"}], "loss_weight": 1.0 } ] }

配置训练集

1.6启动LLama-Factory 的可视化微调界面(http://localhost:7860/)

llamafactory-cli webui

如果报错可以检查一下huggingface-hub版本,建议使用0.34.0

最后就是看后面的东西了

Read more

task:全网最牛的AI 白嫖教程,用 trae “套娃”安装Claude code

task:全网最牛的AI 白嫖教程,用 trae “套娃”安装Claude code

task:全网最牛的AI 白嫖教程,用 trae “套娃”安装Claude code 背景 之前一直没有动手处理 AI 编程软件的事情,一直还停留在拉取 github 然后本地安装的“刻板映像”中,而实际情况是在我拥有 AI-IDE 窗口之后,很多工具都可以互相接通,所以我从最开始下载cursor 安装,逐渐转换为cursor 只是我的一个窗口,最终目的是用 安装Claude code。 描述 认知跃迁,从“本地安装工具”的静态思维 → 转向“AI-IDE 为统一入口”的动态集成范式。本质是将 Cursor 视为「AI 编程操作系统」的 Shell,而非终点。核心转变:工具即服务,窗口即接口。 准备怎么干 摸黑开始,

5款AI PPT美化工具横向测评, 哪个更适合你?

5款AI PPT美化工具横向测评, 哪个更适合你?

做过PPT的人都知道,PPT内容准备得再充分,如果排版太乱,别人就很难看进去,更遑论等我们把主题娓娓道来。 以前想解决PPT排版太丑的问题,通常只有几条路,要么是套模板,要么找设计师,不然就是自己死磕,对于大部分做产品或搞研发的人来说,专门去学PPT配色和排版,时间成本太高了。 现在已经是2025年了,我们可以换种工作方式,把繁琐的PPT排版交给AI,你只需要专注于把事情讲清楚。 这不仅是为了省时间,更是为了让你不被形式拖累。新一代的PPT美化工具和AI生成PPT软件,确实能解决这些重复劳动,让你不再为职场汇报焦虑,真正实现自动化PPT排版。 选购指南:怎么选择一款好用的“AI美化PPT工具”? 在看具体软件之前,我们先得知道,一个好用的AI美化工具,应该有哪些特征,在实际筛选或选购时,你得关注这3个核心指标: ① 结构理解能力 好用的AI应用应该具备NLP语义理解能力,知道什么是大标题,什么是正文,什么是列表,能够理解不同用户输入的提示词。 ② 版式稳定性 在工作场景下,AI工具的稳定性是高优先级的需求,可以关注AI工具生成的配色情况、字体大小。真正好用的AI美化

不再呆板!MiGPT GUI 让小爱音箱变身个性化 AI 助手,内网穿透更实用

不再呆板!MiGPT GUI 让小爱音箱变身个性化 AI 助手,内网穿透更实用

MiGPT GUI 是一款专为小爱音箱打造的图形化工具,核心功能是将小爱音箱接入 DeepSeek V3.2 等大模型,支持自定义人设、切换豆包 TTS 音色,同时兼容 Windows、Mac、Linux 多系统,零基础也能通过 Docker 一键部署,适配小爱音箱 Pro、mini 等多款设备,尤其适合想提升小爱音箱交互体验的普通用户,优点在于可视化操作、解决小米异地登录问题,还能低成本利用免费 tokens 体验 AI 功能。 使用 MiGPT GUI 时发现,虽然操作门槛低,但配置小米账号时要准确填写设备 ID(需和米家 APP 一致),AI 大模型 API 密钥和 TTS 参数填写错误会导致功能失效,且首次部署后建议先测试语音配置,避免后续使用中出现音色异常的情况,

AI对话高效输入指令攻略(三):使用大忌——“AI味”

AI对话高效输入指令攻略(三):使用大忌——“AI味”

免责声明: 1.本文所提供的所有 AI 使用示例及提示词,仅用于学术写作技巧交流与 AI 功能探索测试,无任何唆使或鼓励利用 AI 抄袭作业、学术造假的意图。 2.文章中提及的内容旨在帮助读者提升与 AI 交互的能力,合理运用 AI 辅助学习和研究,最终成果的原创性与合规性需使用者自行负责。 3.对于读者因不当使用文中内容,违反学术规范、法律法规或造成其他不良后果的情况,本文作者及发布平台不承担任何责任。 前言 没有听不懂话的AI,只有不会调教AI的人。(自己瞎说的)当你把AI当人看之后,你就会发现,他是多么好用的高效工具。 书接上文,接下来,我们展示AI的使用大忌——“AI味”。 目录 前言 一.什么叫“AI味” 二.如何消散“AI味” 1.打好基础 (1).优化语法与句子结构 (2).丰富语言表达与多样化句型