MRI Brain Tumor Segmentation and

2021-05-27  本文已影响0人  zelda2333

论文:MICCAI BrainLesion Workshop 2020
代码:pytorch--BrainTumorSegmentation

Abstract

三维核磁共振图像(MRIs)中脑肿瘤分割的自动化是评估该病诊断和治疗的关键。近年来,卷积神经网络在这一课题中取得了较好的效果。然而,在三维cnn中,内存消耗量高仍然是一个问题。而且,大多数方法都不包含不确定性信息,这在医学诊断中尤为重要。本文是3D encoder-decoder的结构,采用基于patch方法训练 ,以减少内存消耗,减少不平衡数据的影响。然后,使用不同的训练模型创建一个集成,利用每个模型的属性,从而提高性能。此外,提出了一种混合分割方法,提高了分割的准确性。数据集为BraTS 2020。

Method

数据集统计

脑肿瘤分割的最大复杂性来自于类的不平衡。肿瘤区域占脑组织的5-15%,每个肿瘤区域的比例更小。图1提供了每个肿瘤类别的分布的图示:ET、NCR、ED;没有健康的组织。可以看出,ED比ET和NCR更可能发生,NCR标签中受试者之间的差异很大。另一个复杂性是胶质瘤分级之间的差异,因为LGG患者的特点是血液浓度低,转化为ET体素出现率低,NCR和NET区域的体素数量较多。

图1:ED、ET、NCR的分布。从左到右,(1)所有情况下的体素数量,(2)HGG的体素数量,(3)LGG的体素数量

Data Pre-processing and Augmentation

MRI强度值没有标准化,因为数据来自不同的机构、扫描仪和协议。因此,我们将每个患者的每一个模态独立地标准化,使其仅基于代表大脑区域的非零体素具有零均值和单位std。

我们还应用了数据扩充技术,通过尽量减少对数据的破坏来防止过度拟合。为此,我们以50%的概率应用随机翻转(所有3个轴),以50%的概率在两个轴上旋转90°,Random Intensity Shift between (−0.1..0.1 of data std) and Random Intensity
Scale on all input channels at range (0.9..1.1).。

Sampling Strategy

三维cnn的计算成本很高,而且在许多情况下,输入数据不能直接传送到网络。基于Patch训练有助于释放内存资源,以便在一批中输入更多图像。但是,Patch大小和批处理大小之间有一个权衡。更大的批将有更准确的数据表示,但需要更小的Patch(由于内存限制),提供本地信息,但缺乏上下文知识。

在这项工作中,我们根据补丁大小使用了两种方法。
–二元分布:随机选择小于等于64^3的小Patch,50%的概率集中在健康组织上,50%的概率集中在肿瘤上[10]。
–随机肿瘤分布:随机选择较大的大小,112^3128^3,但始终集中在肿瘤区域,因为Patch将包含更多健康组织和背景信息。

Loss

Generalized Dice Loss (GDL)

Network Architecture

这项工作提出了三种网络,即V-Net和3DU-Net结构的变体,用于脑肿瘤分割,并创建了一个集成来减轻每个独立模型中的偏差。

V-Net实现已经被调整为使用四个输出通道(Non-Tumor、ED、NCR/Net、ET),并使用 Instance Normalization,与Batch Normalization形成对比,Instance Normalization是针对每个训练示例而不是整个批处理跨每个通道进行规范化。我们已经将最高分辨率下的特征映射数量增加到32个,而不是最初实现中提出的16个。图2显示了输入补丁大小为64x64x64的网络体系结构。

V-Net实际使用96^3的Patch大小和随机肿瘤分布策略进行训练,batch size = 2

图2:V-Net,instance normalization, PreLU

3D-UNet我们使用了原始的实现,只是做了一些小的修改。BN改为GN,并且,和V-Net一样,我们使用了32个最高分辨率的特征图。

网络结构分为对称编码器和解码器两部分。编码器由两个卷积块组成,采用3DConv+ReLu+GroupNorm结构。使用2x2x2 MaxPooling执行下采样,使用插值执行相应的上采样。所有卷积层的内核大小均为3,但最后一个层的内核大小为1x1x1,并输出4个特征映射。在这种情况下,我们使用ReLu非线性,concat拼接。该网络输出一个带有训练标签的四通道分割图以及一个softmax。详细的体系结构如图3所示。

Basic 3D-UNet 实际使用112^3的Patch大小和随机肿瘤分布策略进行训练,batch size = 2

图3:3D-Unet, Group Normalization, MaxPooling and Interpolation Upsampling and ReLU

Residual 3D-UNet 通过残差连接扩展了先前的网络,以允许具有较深的网络,并且减小了梯度消失的风险。在加入残差模块的基础上,该网络还引入了对Basic 3D-UNet的一些修改:(1)add;(2)转置卷积;(3)由于resnet连接,它增加了网络的深度。

图4:3D-Unet, RestNet blocks at each level, MaxPooling, TransposedConvolutions and ReLU

这个网络是按照两种不同的策略训练的。
第一种方法,Residual 3D-UNet在整个训练过程中使用112^3的Patch大小和随机肿瘤分布策略进行训练,batch size = 2。
第二种方法, 3D-UNet-residual-multiscale改变了采样策略,使得网络能够看到局部和全局信息。为此,训练的前半部分使用128个补丁大小,batch size =1。然后,将补丁大小减少到112^3,batch size = 2。

Post-Processing

为了纠正以小的和分离的连接成分的形式出现的假阳性,本工作使用了一个后处理步骤,如果两个最大的连接成分的比例大于通过分析训练集获得的某个阈值,则保留它们。在这个过程中,可能是假阳性的小连接成分被移除,但足够大的成分被保留,因为一些受试者可能有几个肿瘤。
此外,这一挑战的最大困难之一是提供最小子区域ET的精确分割,这在LGG患者中尤其困难,因为几乎40%的患者在训练集中没有增强肿瘤。在评估步骤中,如果基本事实和预测中都没有标签,BraTS会给骰子1分。相反地,在一个没有增强肿瘤的患者中,只有一个假阳性体素会导致骰子得分为0。因此,以前的一些工作[15,16]建议,如果增强体素的总数小于某个阈值,则替换增强肿瘤体素来进行坏死,每个实验都是独立的。然而,我们无法找到一个阈值来改善表现,因为它有助于一些受试者,但使其他一些结果更糟。

Results

上一篇 下一篇

猜你喜欢

热点阅读