Llama-AVSR论文阅读

2025.3

1.摘要

background

  多模态大语言模型(MLLMs)在多模态理解方面表现出色。在音频和语音领域,LLM结合音频编码器已在自动语音识别(ASR)上取得了SOTA效果 。

  然而,视觉和视听语音识别(VSR/AVSR)——这类利用唇部运动信息来增强抗噪能力的任务——却鲜有研究关注如何利用LLM来实现 。

  现有的AVSR方法通常依赖昂贵的大规模标注数据(如100K小时),或者复杂的自监督学习流程 。

innovation

  提出了 Llama-AVSR,这是一个利用预训练LLM进行ASR、VSR和AVSR任务的新框架 。

  参数高效:保持预训练的音频/视频编码器和LLM冻结(frozen),仅训练模态特定的投影层(Projectors)和LLM中的LoRA模块 。

  SOTA性能:在最大的公共AVSR基准数据集LRS3上,ASR和AVSR任务均取得了新的SOTA结果(WER分别为0.79%和0.77%) 。

  关键发现:揭示了预训练编码器的选择、LoRA的集成方式以及**模态感知压缩率(modality-aware compression rates)**是性能与效率权衡的关键因素 。

2. 方法 Method

总分结构汇报:

该方法采用基于Decoder-only的架构 15,Pipeline如图1所示 16。核心思想是将音频和视频特征转化为LLM可理解的Token,与文本Token拼接后输入LLM进行自回归生成。

具体组件及流程

    1. 模态特定的预训练编码器 (Modality-specific Pre-trained Encoders)

输入:原始音频波形 和/或 嘴部ROI视频帧 17。

处理:使用 Whisper 提取音频特征,使用 AV-HuBERT 提取视频特征 18。

状态:编码器在训练期间保持冻结。仅在VSR任务中,视频编码器会加入一个可训练的LoRA模块 19。

    1. 模态特定的投影器 (Modality-specific Projector)

功能:连接编码器和LLM,同时负责**降采样(Downsampling)**以减少计算量 20202020。

操作:首先将 K 个连续特征沿隐藏层维度拼接(压缩率为 K),然后通过两个线性层映射到LLM的嵌入空间。

输出:音频Token (X_aud) 和 视频Token (X_vid)。

    1. 大语言模型 (LLM)

模型:主要使用 Llama 3.1-8B(也探索了TinyLlama, Llama2等) 23。

输入:拼接后的序列:[Prompt + Audio/Video Tokens + Text Tokens]

微调方式:LLM主体冻结,仅训练 LoRA 模块 25。

输出:自回归生成的文本转录 Y。

3. 实验 Experimental Results

  数据集

评测/训练核心:LRS3 (433小时标注视频) 28。

扩展数据:LRS3 + VoxCeleb2 (共1756小时,通过Whisper伪标注) 29。

低资源设置:LRS3 trainval set (30小时) 30。

  主要实验结论

  1. ASR性能:Llama-AVSR在1756小时数据下达到 0.79% WER,刷新SOTA。仅用433小时数据时(1.1% WER)也优于全量微调Whisper-Large(2.3% WER)的方法,且参数量极少(42M vs 1.5B)31313131。
  2. VSR性能:在使用433小时数据时,优于之前的LLM基线(VSP-LLM),主要得益于使用了AV-HuBERT作为视觉编码器 32323232。
  3. AVSR性能:达到 0.77% WER (1756h)。视频模态的引入显著提高了噪声环境下的鲁棒性 33333333。
  4. 压缩率分析:音频Token可以承受较高的压缩率($K=5$)而不掉点;视频Token对压缩率敏感,$K$值增大性能下降明显 34343434。

4. 总结 Conclusion

利用现有的高性能预训练大模型(如Llama 3.1)和专用编码器(Whisper, AV-HuBERT),通过极少量的参数微调(LoRA + Projector),即可在视听语音识别任务上达到超越传统全量训练方法的SOTA性能 。

Read more

知网AIGC检测又双叒更新了!论文AI率太高怎么降?3招教你快速降低aigc率(附工具测评)

知网AIGC检测又双叒更新了!论文AI率太高怎么降?3招教你快速降低aigc率(附工具测评)

知网AIGC检测在2025年12月28日又双叒更新了! 今天就把我的压箱底经验都拿出来,讲讲怎么降低AI率?怎么通过知网aigc检测?顺便实测几款我用过的降ai率工具,帮你省点冤枉钱。 一、为什么你会被判为AI? 先搞清楚一个事:AIGC检测查的不是你抄没抄,而是查的逻辑惯性。 AI生成的文章有个特征:它太完美了,逻辑永远是“背景-分析-结论”,没有任何废话。而我们人类写东西,通常充满了纠结、跳跃和不完美的断句。 想要降低ai率,简单说就是:把你的文章从“完美的机器语言”改成“有瑕疵的人类语言”。 二、手动降AI的三招方法(亲测有效) 如果你离交稿还有半个月,建议先手动改。根据我改了十几篇高AI率文章的经验看,这三招最稳: 1、强行打乱三段式逻辑 AI写东西特喜欢用“首先...其次...最后...”或者“因为A,所以B”,这种顺滑的逻辑在降ai检测里一抓一个准。所以你别顺着说,学会插着说,把因果关系倒过来,或者中间插一句废话。 AI写法:“由于技术限制,本实验未能覆盖所有样本。” 人话写法:

硕士论文盲审前降AI率:盲审评委到底会不会看AIGC报告?

硕士论文盲审前降AI率:盲审评委到底会不会看AIGC报告? 最近收到不少同学私信问我:"学长,我硕士论文马上要送盲审了,学校说要做AIGC检测,但盲审评委真的会看这个报告吗?"说实话,这个问题我当初也纠结过。今天就把我了解到的情况和大家详细聊聊,希望能帮到正在准备盲审的同学。 盲审流程中AIGC检测处于什么位置? 盲审前的"关卡"越来越多 以前硕士论文盲审,学校主要关注的就是查重率。但从2025年下半年开始,越来越多的高校在盲审前增加了AIGC检测环节。根据我收集到的信息,目前的盲审流程大致是这样的: 环节时间节点负责方是否涉及AI检测论文提交盲审前2-4周研究生院部分学校要求提交检测报告查重检测盲审前1-2周学院/研究生院与AIGC检测同步进行AIGC检测盲审前1-2周学院/研究生院是,多数用知网系统送审盲审开始研究生院统一安排部分学校附带检测报告评审盲审期间(2-4周)外校评委评委可能收到报告 三种常见的学校处理方式 经过调研,我发现不同学校对盲审中AIGC检测的处理方式主要分三种: 第一种:检测不通过直接不送审。 这是最严格的情况。如果AIGC检测率超过

AIGC时代的必备技能:提示词工程(Prompt Engineering)全面指南

AIGC时代的必备技能:提示词工程(Prompt Engineering)全面指南

大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为ZEEKLOG博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。 本文主要介绍了AIGC时代的必备技能:提示词工程(Prompt Engineering)全面指南,可点击学习完整版视频课程,希望对学习大语言模型的同学们有所帮助。 文章目录 * 一、提示词的基本概念 * 1.1 什么是提示词? * 1.2 提示词的功能特性 * 1.3 提示工程的重要性 * 二、提示词的基本构成要素 * 2.1 提示词是一门学习引导AI思考的艺术 * 2.2 四大核心组成部分 * 2.2.1 指令(Instruction) * 2.2.2 上下文(

5个高效AI绘画工具推荐:麦橘超然镜像一键部署实测体验

5个高效AI绘画工具推荐:麦橘超然镜像一键部署实测体验 你是不是也遇到过这些情况:想试试最新的AI绘画模型,结果卡在环境配置上一整天;下载完模型发现显存爆了,GPU直接变砖;好不容易跑起来,界面又丑又难用,调参像在猜谜……别急,今天这篇实测笔记就是为你写的。我们不讲虚的,直接上手5款真正好用的AI绘画工具,重点聚焦其中一款——麦橘超然(MajicFLUX)离线图像生成控制台。它不是云服务,不依赖网络,不抽卡不排队,一台RTX 4060笔记本就能跑出接近专业级的画质。更关键的是,它已经打包成ZEEKLOG星图镜像,点几下鼠标就能完成全部部署。下面带你从零开始,真实还原整个过程:怎么装、怎么调、怎么出图、效果到底怎么样。 1. 麦橘超然:中低显存设备上的高质量绘图新选择 很多人以为Flux.1这类大模型只能跑在A100或H100上,其实不然。麦橘超然这个项目,正是为了解决“高性能”和“低门槛”之间的矛盾而生的。它基于DiffSynth-Studio框架构建,但做了关键性优化:对DiT主干网络采用float8量化技术。这不是简单的精度压缩,而是经过实测验证的平衡点——既把显存占用压到