机器学习与数据挖掘

机器学习-Logistic回归

2018-10-28  本文已影响6人  hiyoung

简介

Logistic回归是机器学习中最常用最经典的分类方法之一,有的人称为逻辑回归或逻辑斯蒂回归。虽然它称为回归模型,但是却处理的是分类问题,这主要是因为它的本质是一个线性模型加上一个映射函数sigmoid,将线性模型得到的连续结果映射到离散型上。它常用于二分类问题,在多分类问题的推广叫做softmax。

注:以下图片或者公式取自不同地方,所以符号有所不同,我会在每个公式或图片下说明不同符号代表的意思。

Logisitc回归

由于Logistic回归是将线性模型的输出θx+b经过f(z)数处理后,映射到离散值上形成分类问题,所以我们可以假设分类值y={0,1},所以Logistic回归模型可以写成:h(x)=f(θx+b) ,也就是当θx+b的值大于0时h(x)=+1,当θx+b的值小于0时h(x)=-1。但是这样的f(z)函数称为单位阶跃函数,但是它的数学性质不好,不连续也不方便求导,所以我们使用它的替代函数sigmoid函数也叫s型函数,我们用g(x)表示。这样线性模型的输出经过sigmoid的映射就变成了求出样本属于哪一类别的概率,即θx+b大于0的话,那么样本属于分类1的概率大一点,如果θx+b小于0的话就是样本属于1的概率小属于类别0的概率大一些。图1是单位阶跃函数(红线)与sigmoid函数(黑线)。

图1

sigmoid的函数表达式为:

图2

其中z在Logistic回归中就是θx+b。那么为什么要用sigmoid函数呢?

sigmoid函数

从概率的角度看Logistic回归,如果将样本分为正类的概率看成h(x),那么分为负类的概率就是1-h(x),则Logistic回归模型的概率表达式符合0-1分布:

图3

对上式结合就是Logistic回归的概率分布函数,也就是从概率角度的目标函数:

图4

我们对该式进行变换,可以得到指数族分布,最后可以得出函数h(x)就是sigmoid函数。以下是推导过程:

图5

其中图5中的p是图4中的h(x),而图5的z是线性模型的输出θx+b。这样从指数族分布就可以推出sigmoid函数。换一个思路,我们将一个事件发生的概率p与其不发生的概率1-p的比值叫做几率,对其取对数后称为对数几率(logit):

图6

令它等于线性函数θx+b,最后也可以推出p就是sigmoid函数,也就是图5的后半段,这样说明了sigmoid函数的值是概率值。另外,如果我们不让对数几率函数等于线性函数,让他等于其他的函数呢?这也是可以的,只不过是sigmoid函数中z的表达方式改变而已。

求解Logistic回归模型参数

我们重新整理一下Logistic回归的目标函数,他的最终形式为:

图7

因为这是一个概率问题,所以我们可以使用极大似然估计的方式求解Logistic回归的参数θ。以下是求导过程:

图8

其中g()函数是sigmoid函数,它的导数为:

图9

这样图8得到的结果就是关于θ的梯度,我们通过梯度提升算法(因为目标函数是最大似然估计,求极大值所以用梯度上升,如果想用梯度下降,可以对似然函数取负就是求极小值)更新θ,最后就求出Logistic回归模型的参数θ,这与线性回归方法相同(有没有发现他们的更新梯度的目标函数也相同)。

图10

以上就是Logistic回归模型的建立与参数估计过程,下面我们要说一下他在多分类问题中的推广----softmax回归。

softmax

softmax与Logistic回归的主要区别就是,Logistic处理二分类问题,只有一组权重参数θ。而softmax处理多分类问题,如果有k个类别,那么softmax就有k组权值参数。每组权值对应一种分类,通过k组权值求解出样本数据对应每个类别的概率,最后取概率最大的类别作为该数据的分类结果。它的概率函数为:

图11

softmax经常用于神经网络的最后一层,用于对神经网络已经处理好的特征进行分类。

个人实现了一个二分类的逻辑回归,并与sklearn中的logistic回归做对比:

图12

数据只使用了鸢尾花数据的0/1两个类别,由于本代码实现的比较简单,只能处理类别为0/1的数据,有兴趣的朋友可以自己做补充,本代码只做参考。

详细代码可参考Github:代码链接

参考书籍:

《机器学习》 周志华  著

《统计学习方法》 李航  著

上一篇下一篇

猜你喜欢

热点阅读