3D U-Net

2020-01-27  本文已影响0人  zelda2333

论文:https://arxiv.org/pdf/1606.06650.pdf
翻译:https://www.jianshu.com/p/03ba086c47aa

核心:训练过程只要求一部分2D slices,去生成密集的立体分割。
具体有两种方法:
(1)在一个稀疏标注的数据集上训练并在此数据集上预测其他未标注的地方;
人为地利用算法对3D图像中地某些切片(slices)进行标注然后再放入模型中去跑程序

(2)在多个稀疏标注的数据集上训练,然后泛化到新的数据。
假设有代表性地,稀疏地标注训练集是存在地,直接将数据输入模型进行end-to-end地训练

Introduction

3D数据对于生物医学数据分析来说显得非常冗余

在本文中,我们提出了一个只需要用2D标注数据进行训练,就可以进行3D数据分割的网络。


image.png

在很多的医学影像应用中,很少的训练数据就可以产生很泛化性很优秀的结果

网络结构

3D U-Net

网络结构,与标准的U-Net类似
包含了一个encoder部分和一个decoder部分,encoder用来分析整张图片并且进行特征提取与分析,decoder是生成一张分割好的块状图。论文中使用的输入图像的大小是132 * 132 * 116,整个网络的结构前半部分(analysis path)包含及使用如下卷积操作:

解码操作:

3D U-Net和U-Net均没有使用dropout。

训练细节

3D U-Net同样采用了数据增强,主要由rotation、scaling和将图像设置为gray,于此同时在训练数据上和真实标注的数据上运用平滑的密集变形场(smooth dense deformation field),主要是通过从一个正态分布的随机向量样本中选取标准偏差为4的网格,在每个方向上具有32个体素的间距,然后应用B样条插值(B-Spline Interpolation),B样条插值法比较笼统地说法就是在原本地形状上找到一个类似地形状来近似(approximation)。之后就对数据开始进行训练,训练采用加权交叉熵损失(weighted cross-entropy loss function)以至于减少背景的权重并增加标注到的图像数据部分的权重以达到平衡的影响小管和背景体素上的损失。

实验的结果是用IoU(intersection over union)进行衡量的,即比较生成图像与真实被标注部分的重叠部分。3D U-Net的IoU的具体公式如下:

IoU = True Positives / (True Positives + Falese Negatives + False Positives)

如何应用?

对于项目中如何使用 3D 卷积,有如下两点:

参考链接:
图像分割的U-Net系列方法
3D U-Net 卷积神经网络
3D U-Net 论文笔记
3D U-Net

上一篇下一篇

猜你喜欢

热点阅读