论文阅读 PromptIR: Prompting for All-in-One Blind Image Restoration

论文阅读 PromptIR: Prompting for All-in-One Blind Image Restoration

作者:Syed Waqas Zamir, Aditya Arora, Salman Khan, Munawar Hayat, Fahad Shahbaz Khan, Ming-Hsuan Yang

机构:Mohamed bin Zayed University of AI, Linköping University

来源期刊:NeurIPS

发表时间:2023年
 

一、研究动机

        1.研究目标


        构建一个“All-in-One”盲图像复原网络,用单一模型、单次训练、无需先验地处理多种退化(去噪、去雨、去雾),并在各任务上均达到 SOTA 性能。

        2.过去方法


        任务专用网络:DnCNN、MPRNet、Restormer 等,每类退化需独立模型,存储/部署成本高。
         早期 All-in-One:AirNet 用对比学习额外训练退化编码器,两阶段训练、参数量大,且对退化表征耦合严重。
        通用视觉 Transformer:SwinIR、Uformer 等需针对任务微调,没考虑过退化统一。

         3.本文方法      


        核心思想:把“退化类型”当作可学习的轻量提示(prompt),在解码阶段动态注入网络,引导特征自适应恢复。
关键模块:
        Prompt Generation Module (PGM):根据输入特征实时生成退化条件提示。
        Prompt Interaction Module (PIM):将提示与图像特征做通道级拼接 + Transformer 融合,实现退化感知恢复。
        整体为 4 级 U 型 Transformer,仅在解码器侧插入 3 个 Prompt Block,即插即用、端到端单阶段训练。

        4.优势以及创新点


        ① 首个把提示学习引入低层视觉,用 <0.5% 的额外参数实现多任务统一。
        ② 无需退化先验或对比学习,训练友好。
        ③ 在 denoising/deraining/dehazing 三大任务 6 个公开测试集上,平均 PSNR 比 AirNet 高 0.86 dB,最高领先 2.64 dB;参数量仅 26 M,推理速度提升 1.7×。
        ④ Prompt Block 架构无关,可一键嵌入任意现有复原网络。

二、算法主要思想与原理详解

PromptIR架构概述
  1. Prompt 架构整体就是在Restormer 的架构基础上在每层采样之间加上了一个Prompt Block模块。
  2. 整体流程
    输入退化图 I ∈ R^(H×W×3)
    → 卷积提取浅层特征 F0
    → 4 级编码器(Transformer Block 数=[4,6,6,8])下采样到 1/8 分辨率
    → 解码器逐级上采样,每两级间插入 1 个 Prompt Block(共 3 个)
    → 输出复原图 Î

        3.Prompt Block 内部机制
        (1) PGM:动态生成提示
        Fl ∈ R^(Hi×Wi×C)
        → GAP → 向量 v ∈ R^C
        → 1×1 Conv 降维 → Softmax 得权重 w ∈ R^N(N=5 个 prompt components)
        → w 对可学习组件 Pc ∈ R^(N×H×W×C) 加权求和 → 输入条件提示 P

        (2) PIM:提示-特征交互
           通道拼接 → 送入标准 Transformer Block:
        – MDTA(Multi-Dconv Head Transposed Attention)
          在通道维计算自注意力,复杂度 O(C^2) 而非 O(HW^2),适合高分辨率。
          输出 Y = Wp·V·Softmax(K·Q/α)+X
        – GDFN(Gated-Dconv Feed-Forward)
          两路 1×1+3×3 深度卷积,一路 GeLU 激活后逐元乘,增强非线性且抑制噪声。
        → 3×3 Conv 输出增强特征 F̂l

三、实验结果

  1. 数据集
  2. 训练:BSD400+WED(denoising)、Rain100L(deraining)、SOTS-indoor(dehazing)合并,共约 7.7 万张128×128块。
  3. 测试:
    – BSD68、Urban100(denoising σ=15,25,50)
    – Rain100L(deraining)
    – SOTS-indoor(dehazing)
  4. 评价指标
    PSNR (dB) 、SSIM 

四.定性试验​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​

去雨场景下的性能对比

单任务专用模型再对比:
 去雾:PromptIR 31.31 dB,比 AirNet 高 8.13 dB,比 Restormer 高 0.44 dB。
 去雨:37.04 dB,比 AirNet 高 2.13 dB。
 去噪 σ=50:29.39 dB(Urban100),比 AirNet 高 0.51 dB。 

去噪场景下的性能对比

定量结果(All-in-One 单模型)

全集成修复场景下的性能对比分析
去雾场景下的性能对比
图片去雨比较
图片去噪比较
  1.  去雾场景,PromptIR 彻底去除远处雾幕,建筑边缘无伪影;AirNet 有残留灰色雾墙。
     去雨场景,雨丝密度高时,PromptIR 无条纹残留,车牌文字清晰;AirNet 可见轻微雨痕。
     去噪 σ=50,纹理细节(砖缝、窗户)保持完整,无过度平滑。
  2. 消融实验
图片去雾比较
消融实验

        无 Prompt Block:平均 PSNR 降 0.38 dB。  固定 Prompt:再降 0.19 dB。 Prompt 放在编码器+解码器:性能反而下降 0.92 dB,说明“解码器单侧注入”最佳。  未见噪声水平 σ=35:AirNet 仅 13.64 dB,PromptIR 21.03 dB,差距 7.4 dB,验证泛化能力。

五、结论

PromptIR 首次把提示学习引入图像复原,用极轻量插件实现“一个模型、三种退化、盲设置”下的新 SOTA。未来工作将:

  1. 把 Prompt Block 拓展到更多退化(模糊、低分辨率、混合失真)以逼近“通用复原大模型”
  2. 结合物理退化模型与对抗训练,进一步提升极端场景鲁棒性

Read more

Lostlife2.0下载官网推荐工具:结合LLama-Factory打造个性化AI角色

Lostlife2.0下载官网推荐工具:结合LLama-Factory打造个性化AI角色 在虚拟角色越来越像“人”的今天,我们不再满足于一个只会回答问题的AI助手。用户想要的是有性格、有情绪、会讲冷笑话甚至带点小脾气的“数字生命”——这正是像 Lostlife2.0 这类项目试图构建的未来图景。而要让大模型从“通才”变成某个特定人格的“化身”,光靠提示词(prompt)远远不够,必须通过微调赋予它真正的个性基因。 但问题来了:微调听起来很酷,做起来却门槛极高。你得懂PyTorch、会写训练脚本、处理各种模型兼容性问题,还得有一堆高端GPU撑着。普通人怎么办?这时候,LLama-Factory 就成了那把打开大门的钥匙。 为什么是 LLama-Factory? 过去,如果你想给 Qwen 换个毒舌语气,或者让 Llama 学会用诗人的方式说话,每换一个模型几乎都要重写一遍代码。不同架构有不同的 tokenizer、不同的层命名规则、不同的加载方式……这种碎片化让快速实验变得异常艰难。 LLama-Factory

【大模型部署实战】Llama.cpp部署教程(四):极致轻量化,老旧电脑也能部署大模型

【大模型部署实战】Llama.cpp部署教程(四):极致轻量化,老旧电脑也能部署大模型

前言 你是否想体验大模型却被硬件门槛拦住?本教程专为老旧电脑、低配置办公本、无独显设备打造——通过llama.cpp工具,我们能将大模型运行门槛压到极致,实现10年前的设备也能流畅本地对话。 llama.cpp是目前最主流的轻量化推理框架,核心优势在于纯CPU优化、极低内存占用、GGUF高效模型格式。本教程区分「新手极简版(免编译)」和「进阶优化版」,无论你是电脑小白还是技术爱好者,都能跟着步骤完成部署。 一、前置准备与核心认知 1.1 最低硬件配置要求 先明确你的设备能不能跑,这里给出绝对最低门槛和推荐配置: 硬件类型 绝对最低门槛(能跑) 推荐配置(流畅) 处理器 Intel Core 2 Duo E8400 / AMD Athlon II X2 250 Intel i3-4130 / AMD FX-6300 及以上 内存

2026必备10个降AIGC工具,本科生必看!

2026必备10个降AIGC工具,本科生必看!

2026必备10个降AIGC工具,本科生必看! AI降重工具,助你轻松应对论文挑战 随着人工智能技术的不断发展,AIGC(人工智能生成内容)在学术写作中的应用越来越广泛。然而,对于本科生而言,如何有效降低论文的AIGC率、去除AI痕迹,同时保持文章的语义通顺和逻辑严谨,成为了一个亟需解决的问题。AI降重工具应运而生,它们通过智能分析与优化,帮助学生在不改变原意的前提下,对文本进行深度调整,从而显著降低查重率。 这些工具不仅具备强大的文本处理能力,还能根据不同场景提供多样化的解决方案。无论是初稿的快速处理,还是定稿前的全面自查,AI降重工具都能发挥重要作用。它们的核心优势在于能够精准识别AI生成内容的特征,并通过语义重构、同义替换等方式,让论文更贴近人工写作的风格。此外,许多工具还支持多模式降重,满足不同用户的需求。 工具名称主要功能适用场景千笔强力去除AI痕迹、保语义降重AI率过高急需降重云笔AI多模式降重初稿快速处理锐智 AI综合查重与降重定稿前自查文途AI操作简单片段修改降重鸟同义词替换小幅度修改笔杆在线写作辅助辅助润色维普官方查重最终检测万方数据库查重数据对比Tur

1000多万次播放背后的AIGC方法论:从爆款视频《牌子》开始思考

这篇深度分析文章,基于《牌子》(SIGN)这部现象级AIGC短片的全面拆解,构建一套完整的AIGC内容创作方法论。将分章节系统性地展开,涵盖技术解析、创作方法论、产业影响和未来展望等多个维度。 引言:一个内容事件的诞生 2026年初,中国视频平台Bilibili上出现了一条名为《牌子》(SIGN)的7分钟短片。这部由独立创作者使用AI工具制作的奇幻短片,在一周内获得了超过1000万次播放、80多万点赞、30多万投币,被著名导演郭帆转发点赞,在YouTube上引发国际观众的热议,甚至专业影视后期团队都在上班时间逐帧分析其制作技术。 这不是一次简单的"技术展示",而是一个内容事件的诞生——它标志着AIGC(人工智能生成内容)从"实验室玩具"正式迈入"大众审美"的领域。更重要的是,它证明了一件事:在正确的创作方法论指导下,单个创作者借助AI工具,可以产出媲美专业团队的内容。 本文将从《牌子》的逐帧技术解析出发,深入探讨其背后的创作逻辑,提炼出一套可复用的AIGC内容创作方法论,