CV论文NAS

EfficientNet论文阅读

2019-10-17  本文已影响0人  FantDing

论文原文

Abstract

Introduction

Related Work

ConvNet Accuracy

在精度方面的state-of-art

ConvNet Efficiency

几种efficient手段

这几种efficient手段无法应用于large model(larger design space, expensive tuning cost)

Model scaling

虽然这3种model scaling方法能增加精度,但是没能说明how to effectively scale to trade off efficiency and accuracy

Compound Model Scaling

Problem Formulation

怎么看这一小节都没什么用

优化问题

Scaling Dimensions

单一维度scale

Depth(d):

Width(w):

Resolution(r):

看图总结:
单独scale up每个维度都能提高精度,但是对于更大点的模型,这种"Accuracy gain"的利好便不再有了

image

Compound Scaling

三个维度都scale up

经验得知,不同维度之间的scale up是相互影响的。如输入higher resolution images,为了增加感受野范围,需要增加网络depth;为了capture fine-grained patterns,需要增加width

如下图所示,使用相同的baseline network

image

看图结论:
在FLOPS相同的情况下,to pursue better accuracy and efficiency ,it is citical to balance all dimensions

compound scaling method

作者提出了一种scale原则,如下图:
[站外图片上传中...(image-b36cca-1571643636142)]

FLOPS

float per second

对于一个卷积操作,FLOPS与d, w^2, r^2是成比例的[1]。如,d=2, 即depth变成原来两倍,FLOPS也会变成原来2倍;w or r变成原来2倍,FLOPS将会变成原来四倍。FLOPS增加的倍数=d*w^2*r^2, 如果写成关于\phi, 则有FLOPS增加的倍数=\alpha^\phi*(\beta^\phi)^2*(\gamma^\phi)^2=(\alpha*\beta^2*\gamma^2)^\phi=2^\phi

其中有一些是“约等于”的关系:

EfficientNet architecture

EfficientNet-B0

B0网络是baseline network

efficientNet-b0网络结构图

[站外图片上传中...(image-d9c2b1-1571643636142)]

如何进行scale up

其实正常的做法是,先令\phi=1,进行一次搜索得到\alpha, \beta, \gamma; 再令\phi=2,搜索一次\alpha, \beta, \gamma;... 但是为了减少搜索的代价,作者使用了上述的简便方式

实验

Scaling up MobileNets and ResNets

在MobileNets和ResNets上比较两种scaling方法,说明了compound scaling比single-dimension scaling好[3]

image

ImageNet Results for EfficientNet

训练细节

性能对比

Latancy

为了说明real hardware上真实有效,又做了inference latency实验对比
[站外图片上传中...(image-77c9b6-1571643636142)]

Transfer Learning Results for EfficientNet

在其他8个数据集上比较,有5个数据集都做到了state-of-art, but magnitude fewer parameters

Discussion

为了说明 compound scaling比single-dimension scaling好,作者又在B0上,做了不同scaling的比较实验。compound scaling能有2.5%的精度提升


scaling up EfficientNet-B0

why better

通过activation map可视化[4]发现compound scaling method能够让模型关注more relevant regions with more object details

different scaling method at the same baseline model

参考文章

角注


  1. why FLOPS与width, resolution是平方的关系

  2. neural architecture search

    • Tan, M., Chen, B., Pang, R., Vasudevan, V., Sandler, M.,
      Howard, A., and Le, Q. V. MnasNet: Platform-aware
      neural architecture search for mobile. CVPR, 2019.
    • MnasNet
    • MBConv
    • squeeze-and-excitation optimization
  3. 为什么不搜索一个最好的w or d来比较,而是随便使用了2、4之类的来比较

  4. activation map可视化: 《Learning deep features for discriminative localization》


    CAM生成方式
上一篇 下一篇

猜你喜欢

热点阅读