MEAL: Multi-Model Ensemble via A

2020-04-02  本文已影响0人  晴窗细语

本文提出基于对抗学习的策略来进行知识蒸馏,定义逐级训练损失来指导和优化预定义的学生网络以回复教师模型中的知识,并使判别器网络同时区分老师和学生特征。

简介

来源:

提出:
基于学习的集成方法。即,学习多个神经网络的集成,而不会产生任何额外的测试成本。

利用不同神经网络输出集合作为监督训练目标网络。

网络介绍

network

三种计算teacher与student中间block损失的方法

中间block对齐方式采用自适应池化,损失计算方式为:


block pooling loss

其中,d表示以上三种损失计算方法之一。

pooling loss

中间block discriminator损失计算方式:


block gan loss

总体discriminator损失:


gan loss

网络总体损失:


loss

整体算法流程


algorithm

结果

CIFAR-10数据集上结果 多个数据集上错误率
上一篇 下一篇

猜你喜欢

热点阅读