机器学习逻辑回归量化

逻辑回归

2018-11-27  本文已影响44人  梅_梅

逻辑回归是一个分类算法,它可以处理二元分类以及多元分类。虽然它名字里面有“回归”两个字,却不是一个回归算法。那为什么有“回归”这个误导性的词呢?个人认为,虽然逻辑回归是分类模型,但是它的原理里面却残留着回归模型的影子,本文对逻辑回归原理做一个总结。

1. 从线性回归到逻辑回归

我们知道,线性回归的模型是求出输出特征向量Y和输入样本矩阵X之间的线性关系系数θ,满足Y=Xθ。此时我们的Y是连续的,所以是回归模型。如果我们想要Y是离散的话,怎么办呢?一个可以想到的办法是,我们对于这个Y再做一次函数转换,变为g(Y)。如果我们令g(Y)的值在某个实数区间的时候是类别A,在另一个实数区间的时候是类别B,以此类推,就得到了一个分类模型。如果结果的类别只有两种,那么就是一个二元分类模型了。逻辑回归的出发点就是从这来的。下面我们开始引入二元逻辑回归。

2. 二元逻辑回归的模型

我们引入一个新的模型,逻辑回归,该模型的输出变量范围始终在0和1之间。 逻辑回归模型的假设是:


sigmoid函数.png

g(z)=\frac{1}{1+e^{-z}}

它有一个非常好的性质,即当z趋于正无穷时,g(z)趋于1,而当z趋于负无穷时,g(z)趋于0,这非常适合于我们的分类概率模型。另外,它还有一个很好的导数性质:
g′(z)=g(z)(1−g(z))

这个通过函数对g(z)求导很容易得到,后面我们会用到这个式子。如果我们令g(z)中的z为:z=xθ,这样就得到了二元逻辑回归模型的一般形式:
h_θ(x)=\frac{1}{1+e^{−xθ}}

其中x为样本输入,hθ(x)为模型输出,可以理解为某一分类的概率大小。而θ为分类模型的要求出的模型参数。对于模型输出hθ(x),我们让它和我们的二元样本输出y(假设为0和1)有这样的对应关系

hθ(x)的值越小,而分类为0的的概率越高,反之,值越大的话分类为1的的概率越高。如果靠近临界点,则分类准确率会下降。
此处我们也可以将模型写成矩阵模式:
h_θ(x)=g(θ^Tx)
g(z)=\frac{1}{1+e^{-z}}

其中hθ(x)为模型输出,为 mx1的维度。x为样本特征矩阵,为mxn的维度。θ为分类的模型系数,为nx1的向量。

理解了二元分类回归的模型,接着我们就要看模型的损失函数了,我们的目标是极小化损失函数来得到对应的模型系数θ。

3. 二元逻辑回归的损失函数

回顾下线性回归的损失函数,由于线性回归是连续的,所以可以使用模型误差的的平方和来定义损失函数。但是逻辑回归不是连续的,自然线性回归损失函数定义的经验就用不上了。不过我们可以用最大似然法来推导出我们的损失函数。

我们知道,按照逻辑回归的定义,假设我们的样本输出是0或者1两类。那么我们有:
P(y=1|x,θ)=h_θ(x)
P(y=0|x,θ)=1−h_θ(x)
把这两个式子写成一个式子,就是:
P(y|x,θ)=h_θ(x)^{y}(1−h_θ(x))^{1−y}
其中y的取值只能是0或者1。
用矩阵法表示,即为:
P(Y|X,θ)=h_θ(X)^{Y}(E−h_θ(X))^{1−Y},其中E为单位向量。

得到了y的概率分布函数表达式,我们就可以用似然函数最大化来求解我们需要的模型系数θ。为了方便求解,这里我们用对数似然函数最大化,对数似然函数取反即为我们的损失函数J(θ)。其中似然函数的代数表达式为:
L(θ)=\prod_{i=1}^m=(h_θ(x^{i}))^{y^{(i)}}(1−h_θ(x^{(i)}))^{1−y{(i)}}

其中m为样本的个数。
对似然函数对数化取反的表达式,即损失函数表达式为:
J(θ)=−lnL(θ)=\sum_{i=1}^m(y^{(i)}log(h_θ(x^{(i)}))+(1−y^{(i)})log(1−h_θ(x^{(i)})))
损失函数用矩阵法表达更加简洁:
J(θ)=−Y⊙log(h_θ(X))−(E−Y)⊙log(E−h_θ(X))
其中E为全1向量,⊙为哈达马乘积。

4. 二元逻辑回归的损失函数的优化方法

对于二元逻辑回归的损失函数极小化,有比较多的方法,最常见的有梯度下降法,坐标轴下降法,等牛顿法等。这里推导出梯度下降法中θ每次迭代的公式。由于代数法推导比较的繁琐,我习惯于用矩阵法来做损失函数的优化过程,这里给出矩阵法推导二元逻辑回归梯度的过程。

对于
J(θ)=−Y⊙log(h_θ(X))−(E−Y)⊙log(E−h_θ(X))
我们用J(θ)对θ向量求导可得:
\frac{\partial}{\partialθ}J(θ)=−Y⊙X^T\frac{1}{h_θ(X)}⊙h_θ(X)⊙(E−h_θ(X))+(E−Y)⊙X^T\frac{1}{1−h_θ(X)}⊙h_θ(X)⊙(E−h_θ(X))

这一步我们用到了矩阵求导的链式法则,和下面三个矩阵求导公式:
\frac{\partial}{\partialθ}log(X)=\frac{1}{X}

\frac{\partial}{\partialθ}g(z)=g(z)(1−g(z)) g(z) == sigmoid

\frac{\partial}{\partialθ}Xθ=X^T

对于刚才的求导公式我们进行化简可得:
\frac{\partial}{\partialθ}J(θ) = X^T(h_θ(X)−Y)
    
从而在梯度下降法中每一步向量θ的迭代公式如下:
θ=θ−αX^T(h_θ(X)−Y)

其中,α为梯度下降法的步长。实践中,我们一般不用操心优化方法,大部分机器学习库都内置了各种逻辑回归的优化方法,不过了解至少一种优化方法还是有必要的。

最后补充在非矩阵法表示下的推导详细推导细节


对数似然函数的偏导数简化.png

5. 二元逻辑回归的正则化

逻辑回归也会面临过拟合问题,所以我们也要考虑正则化。常见的有L1正则化和L2正则化。
逻辑回归的L1正则化的损失函数表达式如下,相比普通的逻辑回归损失函数,增加了L1的范数做作为惩罚,超参数α作为惩罚系数,调节惩罚项的大小。

二元逻辑回归的L1正则化损失函数表达式如下:
J(θ)=−Y⊙log(h_θ(X))−(E−Y)⊙log(E−h_θ(X))+||θ||_1
其中
||θ||_1为θ的L1范数。

逻辑回归的L1正则化损失函数的优化方法常用的有坐标轴下降法和最小角回归法。

二元逻辑回归的L2正则化损失函数表达式如下:

J(θ)=−Y⊙log(h_θ(X))−(E−Y)⊙log(E−h_θ(X))+\frac{1}{2}α||θ||_2^2
其中
||θ||_2为θ的L2范数。逻辑回归的L2正则化损失函数的优化方法和普通的逻辑回归类似。

  1. 二元逻辑回归的推广:多元逻辑回归

前面几节我们的逻辑回归的模型和损失函数都局限于二元逻辑回归,实际上二元逻辑回归的模型和损失函数很容易推广到多元逻辑回归。比如总是认为某种类型为正值,其余为0值,这种方法为最常用的one-vs-rest,简称OvR.

另一种多元逻辑回归的方法是Many-vs-Many(MvM),它会选择一部分类别的样本和另一部分类别的样本来做逻辑回归二分类。最常用的是One-Vs-One(OvO)。OvO是MvM的特例。每次我们选择两类样本来做二元逻辑回归。

7. 小结

逻辑回归尤其是二元逻辑回归是非常常见的模型,训练速度很快,虽然使用起来没有支持向量机(SVM)那么占主流,但是解决普通的分类问题是足够了,训练速度也比起SVM要快不少。如果你要理解机器学习分类算法,那么第一个应该学习的分类算法个人觉得应该是逻辑回归。理解了逻辑回归,其他的分类算法再学习起来应该没有那么难了。

8. 参考文章

  1. https://www.cnblogs.com/pinard/p/6029432.html
  2. http://www.ai-start.com/ml2014/html/week3.html
  3. https://blog.csdn.net/sinat_29957455/article/details/78944939
  4. https://blog.csdn.net/ljp1919/article/details/79120761
上一篇下一篇

猜你喜欢

热点阅读