On variance reduction in stochas

2016-01-26  本文已影响0人  世间五彩我执纯白

1. Abstract

基于variancereduction(VR)的SGD算法,比SGD更好,不论是theoretically and empirically,但是异步版本没有被研究。本文为很多VR算法提供了一个unifying framework,然后在这个框架中提出了一种异步算法,并证明了很快的收敛速度。对于通用的稀疏的机器学习问题,能够达到线性的加速。

2. Introduction

在强凸假设下,VR随机算法比SGD的期望收敛速度更快,VR分析了problem structure,做了一些space-time的trade-off,能够减少因为随机梯度带来的varince。需要将同步的VR算法扩展到异步的并行和分布式环境。

3. Related work:

3.1. Primal VR方法

3.2. Dual VR方法

3.3. 分析Dual方法和VR随机方法之间关系

3.4. VR的算法结构

VR的算法结构可以trace back to经典的非随机incremental梯度算法(Incremental gradient, subgradient, and proximal methods for convex optimization:A survey),但是现在被公认的是,随机性帮助取得更快的收敛

3.5. Proximal方法

3.6. 加速VR方法

3.7. 分析finite-sum问题lower-bound

3.8. 异步SGD算法

并行variants

分布式variants

3.9. Coordinate descent方法的并行和分布式variants

3.10. mini-batch

4. VR随机算法的通用框架

4.1. 假设条件

4.2. 已有VR算法

x是参数,alpha是额外的参数,A是alpha的集合

4.3. 空间时间开销分析

4.4. 通用算法

HSAG:结合不同VR算法的调度策略

5. 异步VR算法

类似HogWild!,单机多核环境,稀疏机器学习问题

6. 实验

7. 总结

上一篇 下一篇

猜你喜欢

热点阅读