零成本体验模型微调?技术小白魔搭+LLaMa Factory 跑通全流程

零成本体验模型微调?技术小白魔搭+LLaMa Factory 跑通全流程

教育孩子和训练AI的共同真相:没有一蹴而就的‘完美’,只有持续迭代的‘更好’

Hello,大家好~~

许久不见,现在大热的 AI 学习中,总是手痒忍不住也想实操各项技术玩一把,今天就从微调开始吧!

总在各类文章中听到讲“微调”,那么“微调”的到底是啥?怎么调教的?

我们用魔搭+LLaMa Factory,0 成本,体验一个微调的全流程,无需考虑自己的电脑配置,全部云上微调,最后再将微调的模型引入本地直接体验对话(这次使用一个简单的数据集,所以结局有反转惊喜)

01 什么是“微调”?

首先,我们先大致了解一下,什么是微调?常规大模型语言模型的训练路径分为以下几个阶段:

简单的说,以我们养娃来打个比方:

1. 预训练(通识教育)
  • 模型:通过自监督学习(如阅读海量文本),掌握基础语言规则,但还不会针对具体问题回答。
  • 比喻:就像孩子上学前大量听大人说话、读绘本,积累了词汇和常识,但还不会完整表达观点。
2. 微调(专项训练)
  • 模型:用Q&A对训练,教会它如何组织语言、精准回答问题。
  • 比喻:类似家长或老师通过“问答练习”教孩子:
  • :“天空为什么是蓝色的?”
  • :“因为阳光散射…”。
    → 孩子会使用专业的术语,清晰高效的表达。
3. RLHF(品德教育)
  • 模型:根据人类反馈调整回答,符合社会偏好(如更友善、更严谨)。
  • 比喻:当孩子说“因为天空喜欢蓝色!”,家长纠正:
  • “答案要有科学依据哦!”
    → 孩子学会“不仅回答,还要回答得靠谱”。

那么,聪明的你,一定会明白了,大模型什么时候需要微调呢?一般会在输出要求严格的垂直场景,或者希望更效率的任务,快速输出结果。在企业的 Ai 落地过程中,还是较为广泛,那么,我们如何微调呢?下面跟着我们的步骤开始吧!

02

免费构建微调的实例环境

  1. 打开魔搭构建实例

打开:https://modelscope.cn/my/mynotebook/preset

关联你的阿里云账号,选第二个gpu环境👇

注意这个实例免费,但是过一段时间就会释放,别怕搞错什么东西!

两三分钟后,点击查看notebook

这些大图标就是你的软件,侧边栏就是文件夹,下面的$符号logo,就是终端。相当于在云端给你装了个电脑。

点击终端,进入后,我们就可以开始配置相关的环境啦

2、下载模型、创建模型文件夹

接着下载LLaMA-Factory代码。

我们只用复制不带#的代码就可以了。

安装依赖的环节会等待大概20分钟,不用怀疑,只要输入的指令没有反馈,就耐着性子,继续等待~~千万别急。

# 克隆LLaMA Factory 开源框架 git clone https://github.com/hiyouga/LLaMA-Factory.git # 进入项目的目录 cd LLaMA-Factory #创建虚拟环境 python -m venv .venv #激活虚拟环境 source .venv/bin/activate # 安装依赖(这一步很漫长,如果出错用下面环境冲突的指令) pip install -e ".[torch,metrics]" # 如果报错,环境冲突用改用这个解决 pip install --no-deps -e . 

过程中如果缺少什么依赖,或者提醒做什么升级,照做就是!

会看到已经开始下载了,左边也多了一个文件夹。

持续安装等待到这个状态:

创建一个新的文件夹,命名为 newmodels,并下载模型,为了减少等待时间,以 Qwen2.5-0.5-instruct为例,这是一个最低参数的模型。

git clone https://www.modelscope.cn/Qwen/Qwen2.5-0.5B-Instruct.git 

3、训练数据集准备

我们同样前往魔搭的数据集中,随便下载一个不到 300 行的数据集(数量少,速度快)下载:https://modelscope.cn/datasets/meadhu/taobao-positive-sentence/files

下载后我们注意格式是 csv,用于训练需要是 json格式,这里我们需要预处理,可以让勤劳的ds写一个处理脚本运行即可,保存文件名为train_converted.json 。

⚠️⚠️⚠️这里不会处理的小伙伴可以留言,我私相关的提示词,获取完整代码,在这里就不赘述了~~

因为系统自带dataset_info.json,从目录中找到它,这是一个数据集的索引。我们需要将新创建好的数据集train_converted.json再此注册,直接把数据集名称写入dataset_info.json文件即可。

03

一切就绪,开始训练

返回到我们的训练LLaMA-Factory 文件夹

## 回到LLaMA-Factory 文件夹,如果你已经在LLaMA-Factory 文件夹,就不要用这个指令了 cd .. # 打开训练的 webui llamafactory-cli webui 

点击这里反馈的网址,即可进入,设置自己的相关信息路径

设置好后,就可以开始让它为你训练啦!

一通操作猛如虎,你会看到你的终端咔咔干活儿,

你在自己的 webui 上也可以看到最终的结果:

这里模型损就是失衡量预测与真实值的误差,训练目标是最小化损失;但并非越小越好,太小就会是我们所说的“过拟合”。现在我们这个数据这样的结果就算是不错~

04

本地测试聊天,看看它的表现如何

我们切换到chat,试试模型有没有记住我们刚才提供的数据。

点击检查点路径👉chat👉加载模型

接着我们就可以看到它的回答是基于我们的训练数据的(咱们这个模型因为基础参数小,加上训练的数据集少,所以不怎么聪明的样子,正常会是一个相关的回答,我这个数据集因为写文章训练了多轮,所以它主键走向了魔幻……)

总体上,我们就认为训练成功啦~~

05

导出模型

1、 创建导出目录

导出目录命名为outputmodel

导出成功后再看notebook就会发现多了一个文件夹

2、 转化模型格式,安装GGUF库

回到终端,LLaMA-Factory路径下,执行以下命令

## 新打开一个终端 ## 不管你在哪,运行这个指令回到根目录 cd /mnt/workspace/LLaMA-Factory git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp/gguf-py pip install --editable . 

执行完之后,就会发现目录多出一个 cpp 的文件夹

首先会到LLaMA-Factor下面创建一个叫megred-model-path的文件夹

然后回到llma.cpp文件路径下,一次性复制下面三行代码运行转换格式

3、 转换格式

#再回到llama.cpp文件下 cd .. #然后运行Python 代码,路径改成你的其中有两个路径: # 第一个路径`/mnt/workspace/LLaMA-Factory/outputmodel`改成你刚刚导出的模型路径 # 第二个路径`--outfile /mnt/workspace/LLaMA-Factory/megred-model-path`是导出 GGUF 文件的路径,可以提前创建一个 #下面三行全复制,粘贴到终端一次运行 python convert_hf_to_gguf.py /mnt/workspace/LLaMA-Factory/outputmodel \ --outfile /mnt/workspace/LLaMA-Factory/megred-model-path \ --outtype q8_0 

他就会直接将训练好的模型,为你保存到/mnt/workspace/LLaMA-Factory/llama.cpp

这个gguf就是常用的大模型格式,你粗略理解成大佬梁文峰老师天天忙的就是gguf这些。点击下载~

06

使用模型,检验效果

最方便简单的方式,打开https://jan.ai/,它可以直接使用模型

setting—— Molde Provider——import一下就可以了

导入刚才下载的 GGUF 文件,点击 start,前往对话中,问个问题,嗯,是自己亲生打造的傻孩子没错了~~

如果你有 ollama 的客户端,也可以将文件再次转换后,导入到 ollama 中,进而被 dify 或者 cherrystudio 调用使用,我这里在 cherrystudio 中尝试了之后,发现傻孩子变成了疯孩子,一发不可收拾

怀疑可能和默认系统提示词导致的,或者是在文件转换时出问题了。这里就不再赘述啦~~

ok,这就是我们模型预训练最最最简单的一个最简单的一个流程体验。都有工程师为你完成😄😄~

这是第一篇笔记,希望对大家有帮助,并激励我继续坚持下去,我们下期再见!

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书
在这里插入图片描述
2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

在这里插入图片描述
  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:

三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

在这里插入图片描述
路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。
img
L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。
img
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
img
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。
img
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
img
L5阶段:专题集丨特训篇 【录播课】
img

四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

Read more

基于LangGraph实现模块化Skills型AI Agent

基于LangGraph+DeepSeek+Serper 实现模块化Skills型AI Agent 在AI Agent的落地实践中,模块化Skills设计是提升Agent可扩展性、可维护性的核心方案——将搜索、计算、文件处理等能力封装为独立Skills,Agent可根据需求自主调用,无需修改核心流程。本文将基于LangGraph、DeepSeek大模型和Serper搜索工具,手把手带你实现一个具备工具调用能力的Skills型AI Agent,同时解决开发中常见的MRO冲突、Pydantic验证等问题,代码可直接复制运行。 一、前言:为什么选择Skills型Agent? 传统AI Agent多采用「硬编码工具调用」的方式,新增能力需修改核心逻辑,耦合度高且难以维护。而Skills型Agent将能力拆分为独立的Skill模块,每个Skill遵循统一接口,具备以下优势: 1. 模块化解耦:新增/修改Skill无需改动Agent核心流程,即插即用; 2. 智能决策:大模型自主判断是否调用Skill、调用哪个Skill,无需人工干预; 3. 可扩展性强:支持搜索、计算、代码解释、数

[AI应用与提效-169] - 最近很火的AI龙虾是咋回事?

最近爆火的 “AI 龙虾”,其实是一款叫 OpenClaw 的开源 AI 智能体(AI Agent)软件,因红色龙虾图标得名,网友戏称 “养龙虾”。它最大的突破是让 AI 从 “只说不做” 的聊天机器人,变成能直接操控电脑、手机干活的 “数字员工”。 一、AI 龙虾(OpenClaw)到底是什么? * 本质:开源、本地优先的 AI 智能体框架,由奥地利开发者 Peter Steinberger 开发。 * 核心能力: * 能动手:获得系统权限后,可模拟鼠标、键盘操作,操控浏览器、Office、终端等软件。 * 会规划:接收自然语言指令后,自主拆解多步骤任务并执行(如 “整理桌面文件”“写周报”

Harness Engineering:给 AI 套上缰绳的工程学(通俗易懂)

Harness Engineering:给 AI 套上缰绳的工程学(通俗易懂)

🐴 Harness Engineering:给 AI 套上缰绳的工程学 AI 写代码的速度已经超过了人类能"擦屁股"的速度。Harness Engineering,就是那根让烈马变战马的缰绳。 目录 * 🐴 Harness Engineering:给 AI 套上缰绳的工程学 * 一、前言:当 AI 开始"飙车" * 二、名词急救包——先扫盲再上路 * 🐎 Harness Engineering(驾驭工程) * 🧠 Context Engineering(上下文工程) * 🎵 Vibe Coding(氛围编程) * 🤖 Coding Agent(编码智能体) * 📋 AGENTS.md(AI 工作手册) * 🔌 MCP / ACP / A2A(

不仅仅是补全代码:深度解析AI如何重构我的技术栈

不仅仅是补全代码:深度解析AI如何重构我的技术栈

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * 💻 不仅仅是补全代码:深度解析AI如何重构我的技术栈 * 🎯 引言:从代码补全到思维伙伴 * 🔄 技术栈的重构历程 * 第一阶段:辅助工具时期(2020-2022) * 第二阶段:协作伙伴时期(2023) * 🏗️ 重构后的技术栈架构 * 前端开发:从UI构建到体验设计 * 后端架构:智能化的系统设计 * 📊 数据驱动的技术决策 * 数据库技术栈的AI优化 * 🚀 开发流程的革命性变化 * 1. 需求分析阶段 * 2. 代码审查与优化 * 🔧 工具链的智能化升级 * 开发环境配置 * CI/CD流水线的AI优化 * 🧪 测试策略的AI革命 *