文章阅读小结(2018-11-08更新)

2018-09-02  本文已影响0人  EdwardMa

1. Automatic 3D bi-ventricular segmentation of cardiac images by a shape-constrained multi-task deep learning approach

第一作者:
尽管DL在心脏磁共振图像(CMR)分割中实现了SOTA性能,但是关于整合解剖形状先验的关注还比较少。本文整合多任务深度学习方法和atlas传播,得到一个用于短轴CMR体数据 形状约束的双心室分割pipeline。首先采用2.5D FCN同时分割和定位landmark。其次显示的施加形状约束,这对克服图像artifacts非常有效。在1831个健康被试和649个肺动脉高压被试上做了实验。

20个合成数据上的分割结果对比

Model Endocardium Dice Myocardium
3D Unet 0.923 0.764
3D ACNN(TMI) 0.939 0.811
本文方法 0.943 0.854

Notes: 比baseline提升了2个点,比通过自动编码学习到的形状提升了不到一个点。显示的解剖约束要比学到的约束更好一点。

2. Norm matters: efficient and accurate normalization schemes in deep networks

作者:Elad Hoffer,Israel Institute of Technology;(pytorch代码)
让BN有优势背后的原因还不很清楚,从而在拿到一个新的任务时,不知道该不该用BN。本文对normalization和weight-decay方法的目的和功能展示了一个新的视角:, as tools to decouple weights’ norm from the underlying optimized objective. 本文也展示了normalization, weight decay和learning-rate adjustments之间的联系,最后建议在L1和L无穷空间(取代常用的L2)中使用BN,能在低精度实现中提升稳定性。
问题:BN如何与weight decay (L2正则)搭配或者已经有BN了,是否有必要加上weight decay?
在normalization之前使用weight delay是冗余的。通过调整学习率或者normalization方法,我们可以精确模拟权重下降对learning dynamics的影响。

BN中一个关键的假设是每个batch出现的样本是独立的。这对大部分CNN都是成立的,但是对于样本相关性很大的domain就不成立了,比如时间序列数据。
本文贡献

总之,神经网络学习过程对权重的范数非常敏感,将来重要的研究是search for precise and theoretically justifiable methods to adjust the scale for these norms。
最优的学习率和batch-size之间,以及weight-decay factor和学习率之间,有很强的关联。

3. 机器学习那些事,A Few Useful Things to Know About Machine Learning

作者:Pedro Domingos,刘知远译,2012,Communications of the ACM
成功的使用机器学习,还得掌握一些课本上没有的“民间知识”。本文以分类任务为例介绍。
1. 学习=表示+评价+优化
绝大部分机器学习算法都是由这三部分组成的。表示就意味着为ML建立假设空间,评价即建立损失函数,优化是在假设空间中找到分类性能最优的参数。大部分教科书主要以表示为视角组织内容,但实际上,这三部分同等重要。
2. 将泛化作为目标
但此时无法获得希望优化的函数,因此不得不用测试误差代替训练误差。但从积极的角度讲, 由于这个目标函数不过是真实目标的替身, 我们也
许没有必要完全优化它; 而实际上, 通过简单的贪心搜索返回的局部最优也许比全局最优更好。
3. 仅仅有数据还不够
每个学习器都必须包含一些数据之外的知识或假设( assumption) , 才能够将数据泛化。(Wolpert形式化为没有免费的午餐)。选择表示学习的关键标准之一是:它比较易于表达什么类型的知识。比如有很多图像以及相应的分割结果,那么基于实例的方法更合适;如果有每个类别要求的先决条件,那么if-than的规则表示更适合。机器学习需要知识,学习器将知识和数据结合种出程序。
4. 过拟合
一个强错误假设比那些弱正确假设更好, 这是因为后者需要更多的数据才能避免过拟合。??怎么理解
避免过拟合的方法

5. 直觉不适用于高维空间
Bellman于1961年提出的维数灾难:低维空间表现很好的算法,当输入是高维数据的时候,就变得intractable。 随着样例维度( 即特征数目) 的增长, 正确泛化的难度会以指数级增加, 原因是同等规模的训练集只能覆盖越来越少的输入空间比例。更严格的讲,机器学习所依赖的基于相似度的推理在高维空间不再有效。

我们来自三维世界的直觉在高维空间通常并不奏效。高维空间多元高斯分布的大部分质量并不分布在均值附近而是在逐渐远离均值的一层壳上面。打个比方:一个高维橘子的大部分质量不在瓤上,而是在皮上。

如果数量一定的样例均匀分布在一个( 维数不断增加的) 高维的超立方体中, 那么超出某个维数后, 大部分样例与超立方体的某一面的距离要小于与它们最近邻的距离。 如果我们在超立方体中内接一个超球面, 那么超立方体的几乎所有质量都会分布在超球面之外。 这对机器学习是一个坏消息, 因为机器学习常常用一种类型的形状来近似另一种类型的形状。

在高维空间中人们很难理解正在发生什么。 因此也就很难设计一个好的分类器。 人们也许会天真地认为收集更多的特征永远不会有什么坏处, 因为最坏的情况也不过是没有提供关于类别的新信息而已。 但实际上这样做的好处可能要远小于维度灾难带来的问题。

幸运的是blessing of nonuniformity效应可以在一定程度上抵消维数灾难,在大多数应用中, 样例在空间中并非均匀分布, 而是集中在一个低维流形( manifold) 上面或附近。 比如手写数字识别,把每一个像素点都作为单独的特征,KNN也可以表现的不错,因为数字图像的空间要远远小于整个可能的空间。学习器可以隐式地充分利用这个有效的更低维空间, 也可以显式地进行降维。

6. 理论保证与看上去的不一样

机器学习中理论保证的主要作用并不是在实践中作为决策的标准,而是在算法设计中作为理解和驱动的来源。在这方面,它们作用巨大; 但是使用者需要谨慎: 学习是一个复杂现象, 因为一个学习器既有理论证明又有实际应用,而前者并未成为后者的依据。

7. 特征工程是关键
通常原始数据不能直接拿来学习, 你需要从中构建特征。 这是机器学习项目的主要工作。
现在经常采用的一种方式是先自动产生大量的候选特征, 然后根据它们与分类类别的信息增益等方法来选取最好的特征。 但是要牢记:**特征独立地看也许与分类无关, 但组合起来也许就相关了。 **

8. 更多的数据胜过更聪明的算法
假设已经尽力构建好了特征集合,但是分类器性能还是不好,通常接下来有2种选择

学习器可以分为两类:一类的表示是大小不变的,比如线性分类器;另一类会随着数据而增长,比如决策树。
数据超过一定数量后,大小不变的学习器就不能再从中获益。

4. Multi-Institutional Deep Learning Modeling Without Sharing Patient Data: A Feasibility Study on Brain Tumor Segmentation

作者: Micah J Sheller, G Anthony Reina, Brandon Edwards, Jason Martin, Spyridon Bakas
采用Federated Learning. 每个机构不分享自己的数据,只提到模型权重的更新到中央服务器。 Each iteration of this process: local training, update aggregation, and
distribution of new parameters, is called a federated round。

5. Can We Gain More from Orthogonality Regularizations in Training Deep CNNs? NIPS 2018 (code)

We develop novel orthogonality regularizations on training deep CNNs, utilizing various advanced analytical tools such as mutual coherence and restricted isometry property. These plug-and-play regularizations can be conveniently incorporated into training almost any CNN without extra hassle.

6. BraTS 2018总结(paper

Identifying the Best Machine Learning Algorithms for Brain Tumor Segmentation, Progression Assessment, and Overall Survival Prediction in the BRATS Challenge

逐年壮大的数据集

排名方法:The ranking scheme followed during the BraTS 2017 and 2018 comprised the ranking of each team relative to its competitors for each of the testing subjects, for each evaluated region (i.e., AT, TC, WT), and for each measure. The final ranking score was then calculated by averaging across all these individual rankings and then normalized by dividing by the number of teams.

上一篇下一篇

猜你喜欢

热点阅读