Python建模与NLPMachine Learning & Recommendation & NLP & DL自然语言处理(NLP)

知识蒸馏

2019-10-14  本文已影响0人  dreampai

知识蒸馏(Knowledge Distillation):

1、为什么蒸馏可以 work

好模型的目标不是拟合训练数据,而是学习如何泛化到新的数据。
所以蒸馏的目标是让student学习到teacher的泛化能力,理论上得到的结果会比单纯拟合训练数据的student要好。
另外,对于分类任务,如果soft targets的熵比hard targets高,那显然student会学习到更多的信息。

2、模型结构

image.png
上一篇下一篇

猜你喜欢

热点阅读