【论文笔记】MultiResUNet: Rethinking the U-Net Architecture for Multimodal Biomedical Image Segmentation

【论文笔记】MultiResUNet: Rethinking the U-Net Architecture for Multimodal Biomedical Image Segmentation

论文地址

目录

一、前言

近年来,深度学习在医学图像分割领域取得了很大的突破,其中基于全卷积网络的U-Net已经成为最流行、最引人瞩目的架构[1]。尽管如此,U-Net仍存在着一些不足之处,本文对经典U-Net做出了进一步改进,并经实验证明了其更好的性能。

U-Net架构

二、U-Net模型的分析

在医学图像分割任务中,我们感兴趣的点在于分割原始图像的细胞核、器官、肿瘤等等,这些图像可能来自各种模态。然而在大多数情况下,这些感兴趣的对象是不规则的,而且规模也不同。例如,我们已经证明皮肤病变的规模在皮肤镜图像中可以有很大的变化。这些情况也经常发生在不同类型的医学图像分割任务中。

医学图像中目标规模的变化

因此,对于分析这些不同规模的对象,所用的网络应该具有一定的鲁棒性。例如Inception block并行使用不同大小的卷积核来检测不同规模大小的目标。在U-Net架构中,每个池化层和反卷积层之后都使用了两个3×3的卷积,这两个3×3的卷积实际上近似于5×5的卷积。那么按照Inception block网络结构,增强U-Net的最简单的办法使其可以多分辨率的分析是将3×3、5×5、7×7卷积运算并行。如图

简单的类Inception block

这样类Inception block的替换了原来的卷积层似乎有助于U-Net架构从图像中学习不同尺度的特征。但尽管这样性能会有所提高,但引入的并行卷积层极大地增加了内存需要。因此本文借用Inception v3[2]的思想,使用一系列的更小、更轻量级的3×3的卷积核来分解更大、性能要求更高的5×5和7×7的卷积核。如图:

轻量级结构


图为使用一系列3×3的卷积核分解5×5和7×7的卷积核的轻量级结构

而实验证明这种轻量级结构近似于之前描述的简单的类Inception block,并且减少了内存需要。那这里就有两个问题:

1.为什么两次3×3的卷积近似于一次5×5的卷积呢?

如图,两次3×3的卷积得到的1×1大小的特征图,它的感受域大小是5,而一个5×5的卷积得到的1×1大小的特征图的感受域也是5,因此,两次3×3的卷积可以近似一个5×5的卷积,可以节省大量的计算资源。例如,对5×5的特征图做两次3×3的卷积需要9×9(第一次)+1×9(第二次)=90次乘法运算,而对5×5的特征图做一次5×5的卷积只需要1×25=25次乘法运算,因此计算量会大幅度减少。

两次3×3的卷积替换5×5的卷积

2.为什么后一种轻量级的结构可以近似于之前的结构?

轻量级结构


从input出来,经过第一个3×3卷积,保存得到的特征图,再经过一个3×3的卷积层,这时已经经过了两次3×3的卷积,相当于一次5×5的卷积,将两次卷积的结果保存,再经过第三个3×3的卷积层,这时相当于一个7×7的卷积,保存第三次卷积的特征图,将第一次、第二次的特征图和第三次的特征图做concat,得到最终的output。
尽管这种修改已经大大地降低了内存需求,但是消耗的内存仍然很高。因为第一个卷积层的卷积核的数量如果很高,第一个卷积的卷积核数量会对内存产生二次效应。举例来说,如果这两个卷积层的卷积核个数都是3,一个三通道的7×7特征图经过第一层需要做的乘法数量是3×25×9×3=2025,(加粗的3代表卷积核数量)得到一个3通道的5×5特征图,而其经过第二个卷积层需要的乘法数量是3×9×9×3=729(加粗的3是通道数由前一层卷积核数量决定),因此第一次卷积核数量越多,后面卷积层需要的计算量就越大,因此MultiResUNet并没有保持所有连续卷积层的卷积核数量相等,而是逐渐增加这些层中的卷积核(例如从1增加到3),来防止前面层的内存需求过度传播到网络的较深部分。同时在此结构中又增加了残差连接来获取一些额外的空间信息。该模块被称为MultiRes block。

MultiRes block

三、融合策略的分析

U-Net的一个巧妙之处在于对应层之间的跳跃连接,这使得网络能将在池化操作丢失语义信息之前将这些语义信息从编码器传递到解码器。尽管保留了这些损失掉的语义信息,但是U-Net的跳跃连接仍有一些缺陷:例如:第一个跳跃连接将第一次池化操作之前和最后一次反卷积操作之后的对应编码器层和解码器层连接起来,在这里来自编码器的特征其实是低级特征,因为它们是在网络的浅层计算的。相反,解码器的特征是更高级别的特征,因为它们是在网络的深层计算的。因此,合并的两组特征之间可能存在语义差异(semantic gap),这会在预测过程可能产生一些不利影响,所以在它们融合之前可能要经过某些加工。但随着网络深度的增加,差异可能会逐渐减少,这实际上是因为随着网络深度的增加,编码器和解码器对应层级之间越来越近,因此语义差异也越来越小。
为了缓解编码器和解码器之间的语义差异,本文提出在跳跃连接中加入一些卷积层,并且不是使用普通的卷积层,而是引入了残差连接,这样可以使学习变得更加容易,这个模块在文章中被称为Res Path。具体地说,Res Path使用了3×3的卷积并伴随着1×1卷积的残差连接。

Res Path

四、 整体架构

整体架构如图所示。其中随着网络深度增加,语义差异不断减小。因此也逐渐减少了沿着Res Path路径使用的卷积块的数量,实际上本文分别使用了4,3,2,1个卷积块。

整体架构

参考文献

[1] Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation[C]//International Conference on Medical image computing and computer-assisted intervention. Springer, Cham, 2015: 234-241.
[2] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 2818-2826.
[3] Ibtehaz N, Rahman M S. MultiResUNet: Rethinking the U-Net architecture for multimodal biomedical image segmentation[J]. Neural networks, 2020, 121: 74-87.

Read more

[特殊字符]阿里开源神器!一行代码让网站秒变 AI 原生应用,Page-Agent 太强了!

前言 最近发现了一个超厉害的开源项目——Page-Agent,这是阿里巴巴开源的浏览器内 GUI Agent 框架,只需要一行代码就能让你的网站秒变 AI 原生应用!今天就来给大家详细扒一扒这个神器。 什么是 Page-Agent? Page-Agent 是一个纯前端的浏览器内 GUI Agent 框架,它的核心理念是:让任何网站都能轻松集成 AI 能力,无需后端部署。 核心特点 ✅ 纯前端方案 - 无需后端服务器,直接在浏览器内运行 ✅ 支持多种 LLM - OpenAI、Claude、DeepSeek、Qwen、Gemini、Grok、Ollama、Kimi、GLM、LLaMA 等 ✅ 隐私优先 - 所有操作都在浏览器内完成,数据不会外泄 ✅ 人机协同 - 内置确认面板,用户可以实时查看和确认

告别项目混乱!2026开工季:DooTask如何用“轻量化+AI”破解开发团队协同困局

告别项目混乱!2026开工季:DooTask如何用“轻量化+AI”破解开发团队协同困局

告别项目混乱!2026开工季:DooTask如何用“轻量化+AI”破解开发团队协同困局 在软件开发领域,迭代进度失控、跨岗位沟通断层、需求变更响应滞后是困扰团队的三大痛点。传统项目管理工具功能冗余、学习成本高,而DooTask凭借“轻量化+精准协同”的设计理念,成为开发团队突破效率瓶颈的利器。本文将结合DooTask最新功能升级解析其如何助力团队实现需求同步、迭代跟踪与跨岗协同的闭环管理。 一、需求同步:从“信息孤岛”到“全局透明” 痛点场景:需求变更引发连锁反应 传统模式下,产品经理通过文档或口头传达需求,开发者需反复确认细节,测试人员可能因信息滞后漏测关键功能。 DooTask解决方案:需求看板+智能关联 AI需求解析:Dootask引入先进的自然语言处理(NLP)技术,能够自动分析需求文档中的关键信息,如功能描述、性能指标、界面要求等,并生成结构化的需求模型。同时,AI还可以对需求进行语义理解,识别潜在的风险点和模糊表述,及时提醒产品经理进行澄清,避免后续开发过程中的误解。 智能关联机制:需求任务能够自动推送相关负责人,

AI股票分析师(daily_stock_analysis)详细步骤:从镜像拉取、启动、测试到报告导出

AI股票分析师(daily_stock_analysis)详细步骤:从镜像拉取、启动、测试到报告导出 1. 镜像核心能力与使用价值 你是否想过,不用登录任何金融平台、不依赖外部API、也不用担心数据泄露,就能随时获得一份结构清晰、逻辑严谨的股票分析简报?AI股票分析师(daily_stock_analysis)镜像正是为此而生——它不是另一个云端SaaS工具,而是一套真正跑在你本地机器上的私有化金融分析助手。 这个镜像不处理真实行情数据,也不连接交易所接口,它的全部能力都建立在一个关键前提上:用专业Prompt引导本地大模型,生成符合分析师思维框架的虚构但可信的解读。这意味着,你输入MSFT,它不会查股价,但会基于训练知识,以专业口吻告诉你“近期表现如何”“潜在风险在哪”“未来展望怎样”。这种“结构化虚构生成”,恰恰是金融初学者理解分析逻辑、内容创作者快速产出投教素材、甚至产品经理验证产品话术的理想沙盒环境。 更重要的是,它把原本需要配置Docker、安装Ollama、下载模型、调试WebUI的一整套流程,压缩成一次命令、一次点击。你不需要知道gemma:2b是什么模型,

AI 编程 Trae,国内版本和国际版本,一篇讲透!

AI 编程 Trae,国内版本和国际版本,一篇讲透!

大家好,我是樱木。 写在前面的一些话 最近字节出的 AI 编程 Trae ,写的文章发布后,后台总是收到类似提问:都是Trae,怎么使用的还不一样? 什么是国内版本、国际版本,有什么区别? 如果你是一位业内人士比如程序员,这些问题,以下的文章,你可以直接不用看了。 今天结合最近的使用经验,来分享一下。 一、国内版本 1、官方网站:https://www.trae.com.cn/ 2、内置模型 豆包Doubao、Kimi-K2、阿里千问Qwen-3-Coder、清华智普GLM-4.5、DeepSeek-Reasoner(R1) 3、排队 国产大模型为主,基本不用排队 二、国际版本 1、官方网站:https://www.trae.ai