[PaperNotes]Learning both Weight

2018-07-23  本文已影响39人  BetterCV

Learning both Weights and Connections for Efficient Neural Networks

image.png

Song Han在NIPS15的论文。我把它简称为WCENN。一篇比较经典的CNN pruning的文章,NIPS15.

CNN模型参数太多了。

前人尝试过的方法(来减少CNN模型参数数量):

另外一些方法(来减少CNN模型参数):

已经有的pruning方法:

HashedNets:
一种减小模型容量的方法,可以和pruning一起使用

提出的方法:

效果:模型缩小了9~13倍,而精度几乎没有损失。

缺点

估计速度会很慢。训练速度在文章中提到了,AlexNet要搞一个礼拜。。
测试速度都没有提到过,估计很慢。

具体实现是借助了mask layer,这样看来模型容量没有变小?似乎需要依赖于sparse convolution library?

reference

https://blog.csdn.net/jason19966/article/details/78922695

https://github.com/LuoManGit/cut_weight_cnn

官方代码:https://github.com/songhan/Deep-Compression-AlexNet (好几篇文章代码都在这个repo)

上一篇 下一篇

猜你喜欢

热点阅读