Coursera.MachineLearning.Week10

2020-02-22  本文已影响0人  小异_Summer

Machine Learning Week10 : Large Scale Machine Learning

Large Scale Machine Learning

1. Gradient Descent with Large Datasets

1.1 Learning with large Datasets
左侧是高方差,右侧是高偏差;对于高方差来说增大数据集是有效的改进方法,对于高偏差不需要增大数据集。

Learning with large datasets

1.2 Stochastic Gradient Descent【随机梯度下降】

batch gradient descent

随机梯度下降:

随机梯度下降外层循环通常1-10次,有时一次就能达到一个不错的效果;每次更新θ,大多向着cost function最小的方向进行;最后的结果是在全局最优较小的附近范围内。


Stochastic gradient descent

1.3 Mini-Batch Gradient Descent【小批量梯度下降】
有时比随机梯度下降快一些

Mini-batch gradient descent Mini-batch gradient descent

1.4 Stochastic Gradient Descent Convergence

随机梯度下降算法在每步更新θ前,计算cost(θ,(,)),每1000次迭代后计算这1000个cost的均值并通过画图观察SGD是否在收敛。


Checking for convergence

大多随机梯度下降算法中,学习速率α是保持不变的,因此最终得到的一般是全局最小值附近的一个值;如果想要得到更优的解,可以随运行时间减小α的值,但这种做法需要确定一些额外的参数。


Stochastic gradient descent & Learning rate α
2. Advanced Topics

2.1 Online Learning

当在线网址数据流足够大的时候,每次用户做了决定就对参数集θ进行更新,不重复使用数据;如果数据流不够大,应该像之前那样取一定得数据集进行训练;当进行动态更新θ时,更加能够应对价格敏感情况。


Example.Logistic Regression

预测点击率(Click through rate)


Example.Learning to search

2.2 Map Reduce and Data Parallelism

Map reduce Map reduce. in Cores are the same Map-reduce Question.1 Question.2
上一篇下一篇

猜你喜欢

热点阅读