您好,欢迎访问代理记账网站
  • 价格透明
  • 信息保密
  • 进度掌控
  • 售后无忧

论文解读:3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation

要点

1. 提出了3D U-Net:从稀疏标注的体素图像中学习的立体分割网络。
2. 有两个方案:第一是,在待分割立体图像中标注其中的一些切片,网络从这些标注中学习,再为这个空间提供密集的3D分割;第二是,假设已存在稀疏标注的数据集,直接在这个数据集上训练,然后为新的立体图像进行密集分割。

读引言

研究背景

  医学数据分析中立体数据是常见的(CT、MRI)。

为什么要研究

  以往slice-by-slice的标注方式是冗余并且低效的,因为相邻切片显示的信息几乎相同,而且逐切片学习出来的2D模型预测效果很差,没有考虑到空间上的互信息。本文提出只要求一部分2D切片生成密集的立体分割的思想,并给出了两种具体方法。

主要内容

3D U-Net改进于先前的U-Net结构,只是输入改为3D体积,并将所有操作替换为3D操作,如3D卷积、3D最大池化和3D上采样。此外,本文中尽量避免了瓶颈操作,并使用批归一化加速收敛。
为什么这里要避免瓶颈,而残差网络等要鼓励使用瓶颈?
因为ResNet的bottleneck是指使用1x1卷积,主要是为了通过降通道数量,来降卷积的参数和计算量,这中间会有信息损失,但影响不大,因为毕竟是负责残差的计算;但是在分割任务中利用池化层获取来多尺度信息,池化操作本身就会损失许多信息,所以反而要在最大池化之前将通道数翻倍,来避免瓶颈。

在这里插入图片描述
本文提出的只要求一部分2D切片生成密集的立体分割的思路,是以下两种具体方法:
 (1)在一些人为的已经稀疏标注的切片上训练,再预测其他未标注的地方从而实现密集3D分割;
 (2)在一个具有代表性稀疏标注的训练集上训练,然后泛化到新的数据上实现密集3D分割。

  为了实现这两种方法,采用加权softmax损失函数,将未标记的像素的权重设置为零,使得网络可以仅从有标记的像素中学习,并泛化到整个立体数据。



总结

  3D U-Net诞生于医学影像分割,针对肾脏的生物医学影像的分割达到了IoU(交并比)=86.3%的结果,很大程度上解决了3D图像逐个切片送入模型进行训练的繁琐过程,大幅度提升了训练效率,保留了FCN和U-Net具备的优秀特点。


原文地址:

笔者实验室研究的主要方向是血管图像分割,以及利用生理信号评价脑血流自动调节功能。此专栏会记录我个人对分割领域经典论文,以及一些感兴趣项目的笔记,如果有哪里理解不好的地方欢迎大家指正,共同学习共同进步。


分享:

低价透明

统一报价,无隐形消费

金牌服务

一对一专属顾问7*24小时金牌服务

信息保密

个人信息安全有保障

售后无忧

服务出问题客服经理全程跟进