人工智能之路 - 不停顿的蜗牛数据科学家

机器学习-多元线性回归

2016-05-16  本文已影响943人  不会停的蜗牛

A. 用途:

可以用来预测,由多种因素影响的结果。

B. 建立公式:

C. 求解方法:

方法1. Gradient Descent:

技巧:

技巧1. Feature Scaling:
何时用:

当各个变量的值域或者数量级相差比较大时,
需要将各个变量的值域变换到相似的水平,
变换后,Gradient Descent 就可以更快地下降。

为什么要用:

不用的话,J 关于 Theta 的形状就会非常扁,Gradient 就会来回摆动,就需要更长的时间才能找到最小值。

所以就要做Feature Scaling:

怎么用:

1.除以值域范围:

2.或者,先减平均值,再除以值域范围:

之后,这个形状就会比较正规,Gradient 就可以比较快地找到全局最小值。

技巧2. Learning Rate:

如何确认Gradient Descent是在正确地进行?
如何选择Alpha?

1. 如何确认Gradient Descent是在正确地进行?

数学家们已经证明,当Alpha足够小,J就会每次迭代后都下降。

所以,就可以画图,横轴是迭代的次数,纵轴是cost function的值:
如果是正确的话,那么每次都用迭代后得到的Theta代入J,J应该是下降的。

如果曲线是上升的,说明Gradient Descent用错了,此时需要将Alpha调小。

因为Alpha较大的话,就会过头而错过最小值,进而表现越来越差,造成曲线是上升的:

但是当Alpha太小的话,收敛就会很慢。

补充:
到底需要多少次迭代才会收敛,是与算法和数据有关的。

自动检测是否收敛的方法:
但是这个阈值是很难去确定的。


2. 如何选择Alpha?
在实践中:
可以尝试一系列Alpha的值,0.001,0.01,0.1,1等。

技巧3. 如何选Feature?

在实践中:
你可以不只是用给定的因素,而是通过思考,看哪些因素也是影响预测目标的原因,或者由原始的因素间,进行加减乘除等运算,自己构建Feature。
有一种比较普遍的构建方法,就是多项式。

后续会介绍一些算法,是用来自动选择Feature的。

方法2. Normal Equation

它是另一种求解最小值的方法,是通过分析的方式,而不是迭代。

根据线性代数的知识,得到Theta的求解公式:

m个Sample数据,n个Feature,那么Design Matrix的维度就是 m*(n+1)。

当 X`X 不可逆的时候,该怎么办?
造成不可逆的原因可能主要有两个:
一个是变量间具有相关性,比如一个变量以线性相关关系的形式被用作两个变量。
另一个原因是用了太多的Feature,就是m<=n时,比如说只用10个Sample去做101个Feature的预测。

这两种情况下的解决方案就是,要么删掉一些Feature,要么采用Regularization,后续。

D. 两种方法比较

用 Normal Equation 的话,就不用做 Feature Scaling 了。

当 Feature 有很多,成千上百万的时候,Gradient Descent 也仍然有效,但是 Normal Equation 因为要计算矩阵的转置,乘积,还有逆,就不适用于这样的数量级的计算。一般在 1000 级别的还可以用 Normal Equation。

上一篇下一篇

猜你喜欢

热点阅读