Parallel and Distributed Sparse

2016-01-28  本文已影响0人  世间五彩我执纯白

1. Abstract

2. Introduction

2.1 稀疏优化问题的两个结构特征:

  1. 目标函数可分
  2. 数据近似正交性

2.2 ADMM的可扩展性不好:

  1. 将数据切分到不同节点并不能减少ADMM的计算时间
  2. 因为数据块的增加会导致需要的迭代数增加
  3. 小数据块节省的时间会被迭代数的增加而抵消

2.3. 并行Coordinate descent:

  1. Shotgun:Parallel coordinate descent for l1-regularized loss minimization
  2. Scaling up coordinate descent algorithms for large l1 regularization problems. 并行CD算法的框架
  3. Feature clustering for accelerating parallel coordinate descent. 迭代和随机地选择多个block,在正交条件下,本文的方法需要更少的迭代轮数,而且每轮迭代的开销也几乎不变

3. Problem formulation和数据并行

3.1 三种分布式策略

4. Prox-linear的分布式实现

5. 并行贪心CD

4.1. CD

4.2. GRock

4.3. GRock在稀疏优化的优点

5. 计算复杂度分析

6. Conclusion

上一篇 下一篇

猜你喜欢

热点阅读