论文学习20“Low Dose CT Image Denoisi
这篇文章就是WGAN的一个应用,2018 IEEE TRANSACTIONS ON MEDICAL IMAGING的文章,应用于低剂量CT的重建问题,文章模型总体结构如下:

作者应该是受到SRGAN的影响,将VGG的损失函数带到了网络里,不纯粹的使用MSE,而是利用WGAN的内在损失和VGG进行训练。


是NDCT的样本,那目的就是找到一个映射函数G,完成去噪的功能:

另外一个角度也可以看作z的样本空间Pl,想要通过G映射到另一个样本空间Pg,使得Pg无限接近真实样本空间Pr。这个说法就是更好的拟合WGAN的。
Loss:
WGAN里判别器的loss就如下,最后是惩罚项:

然后生成器部分的loss如下式,没有了log:

为了保证生成器部分能够产生高剂量CT,作者增加了感知损失来限制,就是上述模型里的part2,一般的去噪模型在这里都是用的MSE,如下和ground truth之间loss:

但MSE的效果并不好,可能会产生模糊的图像并导致细节失真或丢失,所以作者尝试了特征空间中定义的loss函数:

其中φ是特征提取器,whd是特征空间的宽、高、深度,本文中采用了VGG-19作为特征提取器,所以感知loss是

网络结构:
整体结构就如上图所示,part1生成器部分8个卷积层的CNN用于进行CT图像的重建;part2感知损失结构用预训练好的VGG-19将生成器生成的图像G(z)和ground truth(x)喂到VGG里用于特征提取,然后根据上式更新生成器的权重;part3判别器网络,结构如下图所示,6个卷积层,3*3的卷积核,最后一层没有sigmod。

最终生成网络的loss是part1、2的和:

判别网络的损失就是公式4,为了证明VGG的有效性,作者还对比了4个不同的loss,分别是:

实验:
作者采用的数据集和我所用的一样,在4k张CT中随机抽取100096对patch,尺寸是64*64,我是用的40*40的,采用Adam进行优化(WGAN里不建议用这个),batchsize是128,在对比四种生成器的loss实验里,结果如下图:


不同指标下几个loss正好是相反的,但一开始loss都是下降所用应该是正相关,在MSE下,网络loss递增方向是:CNN-MSE<WGAN-MSE<WGAN-VGG<CNN-VGG,在VGG下,网络loss递增方向正好相反。在定量测量下,PSNR和SSIM结果如下表:

实验的CT重建结果如下:


�