集成学习之NCL

2021-07-01  本文已影响0人  闪电侠悟空

在看文献的过程中,发现了集成学习并非简单训练N个模型。在这N个模型之间,建立某种约束,能够提升集成学习的效率。这里的NCL:Negative correlation learning就是一个代表。

NCL负相关学习

  1. Liu, Yong, Xin Yao, and Tetsuya Higuchi. "Evolutionary ensembles with negative correlation learning." IEEE Transactions on Evolutionary Computation 4.4 (2000): 380-387.
    • 这个文章有点历史感觉。 通过引入NCL的概念,让各个学习单元之间的差异尽量大。
    • 好懂。但是在最后预测结果这个位置才让差异化增大是不是会影响其作用。Entropy。
  1. Shi, Zenglin, et al. "Crowd counting with deep negative correlation learning." Proceedings of the IEEE conference on computer vision and pattern recognition. 2018.
    • 作者将NCL的思路用在deep network上。
    • 一种见解:其实deepnet的牛逼之处就是靠的集成学习(drop out),那么采用ensemble的高级方法当然是很有可能提高性能表现的。

思考

上一篇下一篇

猜你喜欢

热点阅读