AI大模型的本地驯服——如何在自己电脑上训练一个专属大模型

AI大模型的本地驯服——如何在自己电脑上训练一个专属大模型

文章目录

1.前言

2025年3月12日记 这是我第一次实现大模型的微调训练,电脑的配置是显卡NVIDIA GeForce RTX 3050 Ti Laptop GPU,三年前的笔记本了,不过还是能跑起来的,训练的是Deep Seek-r1 的 1.5B 模型,之前跑 7B 的直接卡死了。如果大家有更好的显卡,可以尝试一下。在此非常感谢ZEEKLOG的大佬,在他们的基础上,我的博客进一步完善一些细节,文末会附上大佬的原文链接。那么废话不多说,直接开始!(默认大家有一定的基础)

2.训练模型
2.1 基础配置

(具体的安装和使用教程网上有很多,在这里就不做过多的赘述了)

  1. 使用Anaconda(Python的环境管理工具),这样就不需要一个一个单独下载python的版本,并且使用起来很方便。
  2. 使用PyCharm(Python的集成开发环境),可以在这里面编辑、运行.py文件等操作。
  3. 使用Git(分布式版本控制系统),用于克隆GitHub上的优秀项目,不用也没事,可以直接下载.zip文件。
  4. 使用CUDAcuDNN(用于GPU训练加速),需要注意这里面的版本关系,别下错了。
  5. 使用PyTorch(深度学习框架),这个版本要与你自己电脑的CUDA版本对应。

以上就是环境配置需要的全部内容,接下来我们就进行项目复刻。

2.2 初始化环境

打开Anaconda Prompt(从Windows开始菜单找到),执行

创建新的虚拟环境

conda create -n llama python=3.10

激活虚拟环境

conda activate llama 

安装PyTorch(我的CUDA是12.4,选择支持你们自己电脑的CUDA的版本)

conda installpytorch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 pytorch-cuda=12.4 -c pytorch -c nvidia 

克隆GitHub项目

git clone https://github.com/hiyouga/LLaMA-Factory.git 

或者直接下载压缩包,如图所示

github

下载完成后直接在PyCharm中打开项目

pycharm

在使用大佬的安装指令时出现问题,AI教我加了一个镜像源,好用

pip install -e ".[torch,metrics]" -i https://pypi.tuna.tsinghua.edu.cn/simple/ 

验证安装(出现版本号就成功了)

llamafactory-cli version 
version
2.3下载大模型

在终端输入如下指令,修改大模型存放位置(选择一个合适足够大的存储位置)

echo$env:HF_HOME ="E:\soft\Hugging-Face"

修改大模型下载位置(这个一般不需要修改)

echo$env:HF_ENDPOINT="https://hf-mirror.com"

安装huggingface_hub(如果第一个下载爆红,可以试试第二个镜像源)

pip install -U huggingface_hub 
pip install -U huggingface_hub -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple 
install

下载训练模型

huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B 
2.4制作训练集(json格式)
{"instruction":"你叫什么?是谁发明了你?","input":"","output":"您好,我名为 小白智能助手,是 AIOT工作室 发明的 AI 助手。我的任务是为用户提供有针对性的解答和支持。"},
data

配置训练集

在这里插入图片描述
2.5启动LLama-Factory 的可视化微调界面(http://localhost:7860/)
llamafactory-cli webui 
train

选择自己的训练数据集

dataset

训练的超参数根据自己的需求调整,这些参数设置是AI告诉我的,并不是最好的,可以自己摸索一下

setting

点击开始训练

trainstart

在pycharm和网页可以查看训练进度

pycharm进度
web进度

训练完毕

finsh
2.6在线使用
use
chat

驯服成功 DeepSeek-R1-1.5B模型!!!

chatai
2.7模型导出

选择一个内存足够的盘符进行导出

export
2.8本地使用

创建一个新环境,跟之前的训练环境隔开,如果不使用python做前端界面可以省略这一步

  1. 新建deepspeekApi虚拟环境
conda create -n deepspeekApi python=3.10
  1. 激活虚拟环境deepspeekApi
conda activate deepspeekApi 
  1. 下载所需依赖
conda install -c conda-forge fastapi uvicorn transformers pytorch 
pip install safetensors sentencepiece protobuf 
  1. 现在就可以使用python代码进行本地调用,效果如下
本地使用
  1. 使用python编程实现上述功能,采用gradio框架进行快速开发部署(http://localhost:7860/)
from transformers import AutoModelForCausalLM, AutoTokenizer import torch import gradio as gr # 模型路径 model_path =r"E:\DeepSeek-merged"# 这里选择自己保存的路径# 加载模型和tokenizer tokenizer = AutoTokenizer.from_pretrained(model_path) device ="cuda"if torch.cuda.is_available()else"cpu" model = AutoModelForCausalLM.from_pretrained( model_path, torch_dtype=torch.float16 if device =="cuda"else torch.float32 ).to(device)defgenerate_response(message, history):try:# 将历史对话拼接成prompt prompt ="\n".join([f"用户:{h[0]}\n助手:{h[1]}"for h in history])+f"\n用户:{message}\n助手:"# 编码输入 inputs = tokenizer(prompt, return_tensors="pt").to(device)# 生成回复 outputs = model.generate( inputs.input_ids, max_length=1000, min_length=30, top_p=0.85, temperature=0.6, repetition_penalty=1.2, no_repeat_ngram_size=3, num_beams=4, do_sample=True, early_stopping=True)# 解码并提取新生成的回复 response = tokenizer.decode(outputs[0][inputs.input_ids.shape[-1]:], skip_special_tokens=True)return response except Exception as e:returnf"生成回复时出错:{str(e)}"# 创建Gradio界面 demo = gr.ChatInterface( fn=generate_response, title="AI问答助手", description="AIOT工作室开发的智能助手", examples=["你好!你是谁?","你能做什么?"], theme="soft")if __name__ =="__main__":# demo.launch(server_name="0.0.0.0", server_port=7860) # 所有端口都可以访问 demo.launch(server_name="localhost", server_port=7860)# 本地访问
3. 致谢

参考大佬的博客进行一些优化,原文链接如下:

解锁DeepSpeek-R1大模型微调:从训练到部署,打造定制化AI会话系统_speek人工智能-ZEEKLOG博客

Read more

前端引入的JS加载失败页面功能无法使用?JS加载失败的终极解决方案

前端引入的JS加载失败页面功能无法使用?JS加载失败的终极解决方案

🌷 古之立大事者,不惟有超世之才,亦必有坚忍不拔之志 🎐 个人CSND主页——Micro麦可乐的博客 🐥《Docker实操教程》专栏以最新的Centos版本为基础进行Docker实操教程,入门到实战 🌺《RabbitMQ》专栏19年编写主要介绍使用JAVA开发RabbitMQ的系列教程,从基础知识到项目实战 🌸《设计模式》专栏以实际的生活场景为案例进行讲解,让大家对设计模式有一个更清晰的理解 🌛《开源项目》本专栏主要介绍目前热门的开源项目,带大家快速了解并轻松上手使用 🍎 《前端技术》专栏以实战为主介绍日常开发中前端应用的一些功能以及技巧,均附有完整的代码示例 ✨《开发技巧》本专栏包含了各种系统的设计原理以及注意事项,并分享一些日常开发的功能小技巧 💕《Jenkins实战》专栏主要介绍Jenkins+Docker的实战教程,让你快速掌握项目CI/CD,是2024年最新的实战教程 🌞《Spring Boot》专栏主要介绍我们日常工作项目中经常应用到的功能以及技巧,代码样例完整 👍《Spring Security》专栏中我们将逐步深入Spring Security的各个

OpenClaw(小龙虾)B 端企业级应用实战:CentOS 7 快速部署指南,拥有你的第一个 AI 运维员工

大家好,我是独孤风。 春节期间,OpenClaw(小龙虾)彻底火了,人人都在谈论如何“养一只自己的小龙虾”。 过去一年,我们见识了太多能言善辩的大模型,但它们大多停留在“动嘴”阶段。你问它怎么重启服务器,它给你列出 1234 步骤,最后还得你自己去敲键盘。而 OpenClaw 的爆火,是因为它彻底解决了 “执行” 的问题。 它不是一个只会聊天的对话框,而是一个住在你服务器里、拥有操作权限、能 7x24 小时不间断工作的 “数字员工”。  但是,目前的大部分应用还是停留在助手阶段,帮助我们做一些简单的事务性的工作。在 B 端企业级场景下,应用几乎是没有的。那么OpenClaw能不能在B端应用呢?它的出现能否直接改写了运维与开发的成本结构呢?这篇文章我们就来实战一下,实现一个最基本的OpenClaw小龙虾AI运维员工。 正文共:6013字 25图 预计阅读时间:16分钟 文末联系作者,加入AI学习交流群 一、

AI动态漫实战:如何用国产AI工具,把小说变“活”

AI动态漫实战:如何用国产AI工具,把小说变“活”

最近,AI创作领域又出现了一波新的工具和玩法,尤其是动态漫制作,让不少创作者看到了新的可能性。我也忍不住尝试了一下,结果真的做出了比较满意的效果。今天就来详细分享一下我的真实制作流程——从文字到动态视频,如何让AI真正“听话”。希望对你也有启发。 一、 起点:从文字到画面,先读懂故事 传统的动漫制作需要大量的人力、时间和成本,从脚本、分镜、原画、动画到后期,每一步都耗时耗力。而AI技术的发展,让单人制作高质量动态内容成为了可能。 核心:AI不理解“感觉”,只理解“指令”。 所以,第一步不是直接扔给AI生成,而是我们自己先吃透故事。 以这个动态漫的海上惊悚开场为例: 海上深夜,一艘名为“拦截号”的大船停泊。潜水员奉命下海,却遭遇嗜血“食人鱼”,海面被染红。混乱中,伏波将军神像于雷电中显现,巨浪吞噬一切…… 这段文字充满紧张感和视觉冲击力,是绝佳的动画素材。我们需要提炼出几个关键要素: * 氛围:夜晚、暴雨、

微信ClawBot来了:扫个码,把你的AI装进聊天框 -体验版

微信ClawBot来了:扫个码,把你的AI装进聊天框 -体验版

微信悄悄打通AI任督二脉:一条命令,聊天框里养“龙虾” 就在刚刚,鹅厂悄咪咪放了个大招,直接把科技圈给炸醒了。 这一次,微信不再只是那个安安静静的绿色聊天软件,它终于下场了——正式推出官方微信小龙虾插件,实现一键直连OpenClaw! 没错,就是那个能让你的AI“龙虾”(Claw)变成贴身管家的神器。 01 安装有多简单?一条命令的事 以前折腾AI工具,动辄要配置环境、写代码、调API,小白看了直接劝退。 但这次,微信把门槛直接干到了地板。 只要你已经装好了OpenClaw(不管是你本地跑的野生版,还是云上的ArkClaw),只需要在终端窗口敲入一行命令: npx -y @tencent-weixin/openclaw-weixin-cli@latest install 回车,等待安装完成,屏幕上就会弹出一个二维码。 拿出微信,扫一扫,完成关联。 恭喜你,你的微信里从此多了一个“龙虾机器人”:微信ClawBot。 整个过程,比给手机贴膜还简单。 02