机器学习迁移学习读论文

读论文系列:Deep transfer learning per

2017-08-02  本文已影响230人  梦里茶

转载请注明作者:https://github.com/ahangchen

arxiv 2016 by Mengyue Geng, Yaowei Wang, Tao Xiang, Yonghong Tian

Transfer Learning

旧数据训练得到的分类器,在新的数据上重新训练,从而在新数据上取得比较好的表现,新数据与旧数据有相似的地方,但具有不同的分布。

Fine tuning一般步骤

这是InceptionV4的图示

论文核心模型

几个创新点:

Unsupervised Transfer Learning

Self-training

Co-training

Co-Model

(公式是用LaTeX格式写的,简书不支持,可以前往我的主页查看)

Trick Result

Supervised Transfer Learning Result

DataSet State of the art Transfer
CUHK03 75.3 85.4
Market1501 82.21 83.7
VIPeR 53.5 56.3
PRID 40.9 43.6
CUHK01 86.6 93.2

(表中都是top1准确率)

Unsupervised Transfer Learning Result

DataSet State of the art Transfer
VIPeR 33.5 45.1
PRID 25.0 36.2
CUHK01 41.0 68.8

Compare with other unsupervised method

使用其他无监督方法进行实验对比

Method Top1 acc
Self-training 42.8
SubSpace 42.3
Transfer 45.1
CNN+AutoEncoder 36.4
Adversarial 22.8

其中SubSpace为只使用Co-Model,不使用CNN模型,Self-training为只使用CNN模型,Transfer是两者结合的Co-training。

总体来说这种无监督的方法取得了比较好的效果,在小数据集上甚至超过了有监督的效果。

如果觉得我的文章对你有帮助,可以前往github点个star

上一篇下一篇

猜你喜欢

热点阅读