【论文笔记】知识蒸馏的全面综述

【论文笔记】知识蒸馏的全面综述

目录

写在前面

一、知识从哪里来?

二、知识蒸馏的传授方案

三、知识蒸馏的核心算法

四、知识蒸馏的应用领域


写在前面

        今天看一篇关于知识蒸馏(Knowledge Distillation, KD)的全面综述,知识蒸馏可以想象成一位“学霸”老师把自己的解题思路和秘诀传授给“学弟学妹”学生的过程,目的是让小巧高效的“学生”模型也能拥有接近庞大“老师”模型的强大能力。这在人工智能领域非常重要,能让我们在手机、摄像头等计算资源有限的设备上也能运行强大的AI模型。

        这篇文章系统性地梳理了知识蒸馏这个领域,就像一本厚厚的“武功秘籍大全”,详细讲解了各种不同的“传授功力”的方法。下面我梳理一下最重要的内容。

论文地址:https://arxiv.org/pdf/2503.12067

一、知识从哪里来?

        这就像是问,老师要教给学生什么?文章总结了三大类“知识宝库”:

1.答案本身(基于Logit的蒸馏):老师直接告诉学生这道题选A的概率是80%,选B的概率是20%。学生不光要学正确答案,还要学老师这种“不确定性的感觉”。这是最经典、最直接的方法。

2.解题思路和中间步骤(基于特征的蒸馏):老师不光给答案,还把关键的解题步骤、画的辅助线(即模型中间层提取的特征)也展示给学生看。学生模仿这些中间步骤,能学得更深、更好。

3.知识点之间的联系(基于相似性的蒸馏):老师会教学生,题目1和题目2很像,解题思路是相通的;而题目1和题目3差别很大。学生学会了这种“举一反三”的能力,泛化性就更强。

二、知识蒸馏的传授方案

        这指的是老师和学生之间的教学安排模式。

1.离线教学(离线蒸馏):这是最常用的模式。老师(大模型)已经学成毕业了,知识渊博且固定不变。学生(小模型)在学习时,随时可以向这位固定的老师请教。这种方法简单有效,但学生的高度受限于这位老师。

2.在线教学(在线蒸馏):老师和学生是同学,一起学习、共同进步。他们可以互相切磋,或者一群学生互相作为老师。这样更灵活,不需要一个预先练好的“大师傅”。

3.自学成才(自蒸馏):没有外部老师,自己教自己。比如,用自己模型之前学到的知识来指导现在训练,或者让模型的深层部分教浅层部分。这种方法在数据没有标签(自监督学习)时特别有用。

三、知识蒸馏的核心算法

        增强教学效果的“教学法”有很多:

1.注意力引导法(基于注意力的蒸馏):老师告诉学生,看图片时要重点关注这里、那里(关键区域),别被无关信息干扰。这能让学生学得更精准。

2.对抗训练法(对抗蒸馏):有点像“故意出难题考学生”。生成一些迷惑性的题目(对抗样本),训练学生即使在干扰下也能做出和老师一样的判断,让模型更鲁棒。

3.名师团教学(多教师蒸馏):不止一位老师,而是请好几位各有所长的老师来教一个学生,博采众长,让学生学到的知识更全面。

4.跨学科教学(跨模态蒸馏):让一种“专业”的老师(比如精通图像的老师)去教另一种“专业”的学生(比如处理文本的学生)。比如,让一个既懂图像又懂文字的模型,把两种知识融合起来教给一个只处理图像的小模型。

5.关系图谱教学(基于图的蒸馏):把知识组织成一张关系网来教,让学生理解知识点之间的复杂关联,而不仅仅是单个知识点。

6.因材施教法(自适应蒸馏):不是一成不变地教,而是动态调整。比如,发现老师某部分讲得不好,就少听点;或者根据学生的学习进度,动态调整教学重点。

7.对比学习法(对比蒸馏):通过比较“相似”和“不相似”的样本来教学。让学生明白,和老师对于相似样本的反应应该靠近,对于不同样本的反应应该远离。

四、知识蒸馏的应用领域

        这篇文章花了很大篇幅介绍知识蒸馏在各种AI任务中的应用,简直无处不在:

1.大型语言模型(LLMs)的“瘦身”:像GPT、BERT这样的巨无霸模型,通过知识蒸馏可以压缩成小巧精干的版本,让你在手机上也能运行强大的聊天机器人。

2.基础模型的“下放”:将CLIP(能同时理解图像和文字)、SAM(能分割万物)等超强模型的能力,蒸馏到小模型上,让小模型也拥有“火眼金睛”。

3.自监督学习的“核心”:很多不需要人工标注数据的学习方法(如SimCLR, DINO),其本质就是一种“自蒸馏”,自己和自己学。

4.扩散模型的“加速”:像Stable Diffusion这样的AI绘画模型,生成一张图需要很多步,很慢。通过蒸馏,可以大幅减少步骤,实现快速高质量生成。

5.视觉识别任务的“提效”:在图像分类、物体检测、语义分割等所有常见的视觉任务中,知识蒸馏都被广泛用于打造又快又好的小模型。

        总结一下,这篇综述就像一份超级详细的“知识蒸馏”使用说明书和百科全书。它告诉你:

(1)知识有哪些形式(答案、思路、关系)。

(2)教学有哪些模式(离线、在线、自学)。

(3)有哪些高效的教学方法(注意力、对抗、多教师等)。

(4)以及这些方法在AI的各个热门领域(大语言模型、基础模型、图像生成、视觉识别等)是如何具体应用的。

        最终目的就是:把大模型的“智慧”,高效、无损地“注入”到小模型里,让强大的AI能力变得无处不在、触手可及。

        关注不迷路(*^▽^*),暴富入口==》 https://bbs.ZEEKLOG.net/topics/619691583

Read more

如何降低AIGC总体疑似度?7个实用技巧+专业工具真实案例分享

如何降低AIGC总体疑似度?7个实用技巧+专业工具真实案例分享

为什么你的论文总是被标为AIGC疑似? 近年来,随着AI写作工具的普及,一个让无数研究者头疼的问题出现了——AIGC总体疑似度过高。根据各大高校的最新规定,如果论文的AIGC率超过30%,很可能被判定为AI代写,直接取消答辩资格! 根据高校规定,AIGC率超过30%可能被判定为学术不端,面临取消答辩资格的风险。 许多同学反映:"我只是用AI辅助写作,怎么就被判定为学术不端了?" 这背后的原因是AI生成内容具有特定的规律性特征,如固定句式、高频词汇组合等,这些"数字指纹"很容易被检测系统识别。 7个实用降重技巧,亲测有效! 1. 变换表达,重构句式 避免使用AI常见的短句结构,如"首先,"、"综上,"等。将这些碎片化表达整合成完整句子。 示例对比: * 改前:综上所述,研究者们普遍认为企业偿债能力是一个多维度的概念。 * 改后:总之研究人员普遍认同企业偿债能力这一多维度概念。 2. 引入具体数据和案例 通过添加真实的研究数据、

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL 目录 LLaMA-Factory微调多模态大模型Qwen3-VL 1. 显卡驱动 2. 模型微调 3. 模型导出 4. 模型部署:vLLM服务 5. 测试效果 1. 显卡驱动 * 显卡型号:NVIDIA GeForce RTX 3090 24G * 显卡驱动:NVIDIA-SMI 535.171.04             * CUDA: 12.2 ,Driver Version: 535.171.04   微调Qwen3-VL-2B模型,至少需要12G显存 2. 模型微调 项目采用大型语言模型工厂(LLaMA-Factory)对大模型微调,目前可支持Qwen3 / Qwen2.5-VL / Gemma 3 / GLM-4.1V / InternLM

Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告

Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告

引言 随着大语言模型(LLM)技术的飞速发展,其底层算力支撑硬件的重要性日益凸显。传统的GPU方案之外,以华为昇腾(Ascend)为代表的NPU(神经网络处理单元)正成为业界关注的焦点。为了全面、深入地评估昇腾NPU在实际LLM应用中的性能表现,我们进行了一项针对性的深度测评。本次测评选用业界广泛应用的开源模型Llama-2-7b,在 Atlas 800T A2 训练卡 平台上进行部署、测试与分析,旨在为开发者和决策者提供一份详实的核心性能数据、深度的场景性能剖析、以及可靠的硬件选型与部署策略参考。 模型资源链接:本项目测评使用的模型权重及相关资源可在 GitCode 社区获取:https://gitcode.com/NousResearch/Llama-2-7b-hf 一、 测评环境搭建与准备 扎实的前期准备是确保测评数据准确可靠的基石。本章节将详细记录从激活昇腾NPU计算环境到完成所有依赖库安装的全过程,确保测试流程的透明与可复现性。 1.1 激活NPU Notebook实例 我们通过GitCode平台进行本次操作。首先,需要进入项目环境并激活一个Notebook实例,这

Qwen3-TTS部署教程:Qwen3-TTS与Whisper ASR构建双向语音对话系统

Qwen3-TTS部署教程:Qwen3-TTS与Whisper ASR构建双向语音对话系统 想象一下,你对着电脑说一句话,电脑不仅能听懂,还能用自然、有感情的声音回答你,整个过程流畅得就像在和朋友聊天。这听起来像是科幻电影里的场景,但现在,通过Qwen3-TTS和Whisper ASR这两个强大的开源模型,我们完全可以自己动手搭建这样一个系统。 今天,我就带你一步步实现这个目标。无论你是想做一个智能语音助手,还是想为你的应用增加语音交互功能,这篇教程都会给你一个清晰的路线图。我们会从最基础的部署开始,到最终实现一个能听会说的双向对话系统。 1. 准备工作与环境搭建 在开始之前,我们先来了解一下今天要用到的两个核心工具。 Qwen3-TTS 是一个强大的文本转语音模型。它最吸引人的地方在于,它支持10种主要语言,包括中文、英文、日文等,还能生成多种方言和语音风格。更厉害的是,它能理解你文本里的情感和意图,自动调整说话的语调、语速,让生成的声音听起来特别自然。 Whisper ASR 则是OpenAI开源的语音识别模型,它的识别准确率非常高,支持多种语言,而且对带口音、有噪声