深度学习

29.深度学习模型压缩方法-3

2022-12-22  本文已影响0人  大勇任卷舒

29.1 后端压缩

(1)低秩近似

事项 特点
优点 可以降低存储和计算消耗; 一般可以压缩2-3倍;精度几乎没有损失;
缺点 模型越复杂,权重矩阵越大,利用低秩近似重构参数矩阵不能保证模型的性能 ; 超参数的数量随着网络层数的增加呈线性变化趋势,例如中间层的特征通道数等等。 随着模型复杂度的提升,搜索空间急剧增大。

(2)未加限制的剪枝

事项 特点
优点 保持模型性能不损失的情况下,减少参数量9-11倍; 剔除不重要的权重,可以加快计算速度,同时也可以提高模型的泛化能力;
缺点 极度依赖专门的运行库和特殊的运行平台,不具有通用性; 压缩率过大时,破坏性能;

(3)参数量化

事项 特点
优点 模型性能损失很小,大小减少8-16倍;
缺点 压缩率大时,性能显著下降; 依赖专门的运行库,通用性较差;

(4)二值网络

事项 特点
优点 网络体积小,运算速度快,有时可避免部分网络的overfitting
缺点 二值神经网络损失的信息相对于浮点精度是非常大;<br />粗糙的二值化近似导致训练时模型收敛速度非常慢

(5)三值网络

事项 特点
优点 相对于二值神经网络,三值神经网络(Ternary Weight Networks)在同样的模型结构下可以达到成百上千倍的表达能力提升;并且,在计算时间复杂度上,三元网络和二元网络的计算复杂度是一样的。例如,对于ResNet-18层网络中最常出现的卷积核(3x3大小),二值神经网络模型最多可以表达2的3x3次方(=512)种结构,而三元神经网络则可以表达3的3x3次方(=19683)种卷积核结构。在表达能力上,三元神经网络相对要高19683/512 = 38倍。因此,三元神经网络模型能够在保证计算复杂度很低的情况下大幅的提高网络的表达能力,进而可以在精度上相对于二值神经网络有质的飞跃。另外,由于对中间信息的保存更多,三元神经网络可以极大的加快网络训练时的收敛速度,从而更快、更稳定的达到最优的结果。

大数据视频推荐:
网易云课堂
CSDN
人工智能算法竞赛实战
AIops智能运维机器学习算法实战
ELK7 stack开发运维实战
PySpark机器学习从入门到精通
AIOps智能运维实战
腾讯课堂
大数据语音推荐:
ELK7 stack开发运维
企业级大数据技术应用
大数据机器学习案例之推荐系统
自然语言处理
大数据基础
人工智能:深度学习入门到精通

上一篇 下一篇

猜你喜欢

热点阅读