Logistic Regression,Softmax以及Cro

2020-03-20  本文已影响0人  小新_XX

I. Logistic Regression(LR)

1. 从线性回归说起

线性回归(Linear Regression)是一个回归模型,用线性关系来拟合输出y和输入x之间的关系:
f(\boldsymbol x) = w_1x_1 + w_2x_2 + ... + w_nx_n + b \tag1
或者可以简写
f(\boldsymbol x) = \boldsymbol {w^Tx} +b \tag2
\boldsymbol {x} \in \mathbb{R^n}, \boldsymbol {w} \in \mathbb{R^n}, b \in \mathbb{R}.但线性回归只能解决连续值的回归问题。如果延伸到分类问题,自然的想法是找一个连续可微函数g(\cdot)将式(2)的输出值f(\boldsymbol x)映射到一个概率范围[0,1]内。如果选择sigmoid函数,就成为了我们要讨论的logistic regression模型。sigmoid函数如式(3)所示
y = \frac{1}{1+e^{-z}} \tag3

2. Logistic Regression

Logistic Regression是一个二分类模型,定义为如下的条件概率函数
P(Y=1|x) = \frac {e^{\boldsymbol {w^Tx}+b}}{1+e^{\boldsymbol {w^Tx}+b}} \tag4
P(Y=0|x) = \frac {1} {1+e^{\boldsymbol {w^Tx}+b}} \tag5
\boldsymbol {x} \in \mathbb{R^n}, \boldsymbol {w} \in \mathbb{R^n}, b \in \mathbb{R}. 模型会比较式(4) (5)的大小,并将较大的概率值对应的标签作为预测结果。

这里要引入一个几率(odds)的概念。一个事件的几率是指该事件发生与不发生的概率之比,即\frac p {1-p}.对几率取对数则是对数几率(log odds,又称logits).根据式(4)和(5),Logistic Regression的logits为
log(\frac p {1-p}) = \boldsymbol {w^Tx}+b \tag6
这里就可以看出,LR模型实质上是用线性函数来拟合事件的对数几率,因此LR又被称为对数几率模型。由于LR是一个概率模型,因此可以使用极大似然法来求解参数\boldsymbol wb,网上有很多推导,这里不做展开。

II. Softmax函数

1. 定义

LR是一个二分类模型。想做多分类的话,就轮到softmax登场了。softmax函数定义如下:
Y_i = \frac {e^{\boldsymbol {w_i^Tx_i}}}{\sum_{k=1}^K e^\boldsymbol {{w_k^Tx_k}}}\tag7
\boldsymbol {x_i} \in \mathbb{R^n}, \boldsymbol {w_i} \in \mathbb{R^n}, i \in \{1, 2, ..., K\} , Y_i \in (0, 1).Softmax函数的取值为(0, 1),经常用于神经网络最后一层的激活函数。这K个输出可以看做是对K个类别的预测概率,softmax输出值最大的那个就作为预测的标签。

2. Softmax与LR的关系

事实上,LR是softmax的类别数K=2时的特殊形式,推导如下:
K=2时,softmax可以写作
Y_i = \frac {e^{\boldsymbol {w_i^Tx_i}}}{e^{\boldsymbol {w_1^Tx_1}}+e^{\boldsymbol {w_2^Tx_2}}}, i=1,2 \tag8
将分子分母的系数w都减去w_i^T,可得
Y_1 = \frac {e^{\boldsymbol {0x_i}}}{e^{\boldsymbol {0x_1}}+e^{\boldsymbol {(w_2^T-w_1^T)x_2}}} = \frac {1}{1+e^{\boldsymbol {(w_2^T-w_1^T)x_2}}}\tag9
Y_2 = 1-Y_1 = \frac {e^{\boldsymbol {(w_2^T-w_1^T)x_2}}}{1+e^{\boldsymbol {(w_2^T-w_1^T)x_2}}}\tag{10}
\boldsymbol {w_2^T-w_1^T}=\boldsymbol {w^T},则Y_1Y_2就是logistic regression中的P(Y=0|x)P(Y=1|x).

3. Softmax的导数

Softmax经常作为神经网络的输出,其导数为:

\frac{\partial Y_i}{\partial \boldsymbol{x_j}}=\left\{\begin{aligned}-Y_iY_j, & i \neq j \\Y_i(1-Y_j), & i = j\end{aligned}\right.\tag{11}

III. Cross Entropy

Cross entropy (交叉熵)原本是信息论中的概念,描述的是两个概率分布间的距离,定义如下
H(p, q) = -\sum_xp(x){\rm log}q(x) \tag{12}
在分类任务中,我们经常看到Cross Entropy作为LR和softmax函数的损失函数。这里p(x)为真实值,q(x)为预测值,交叉熵可以刻画预测值和真实值之间的差异,这也是其可以作为概率模型loss函数的原因。而前文所介绍的LR和softmax输出的结果正是这样的概率形式。

当Cross entropy作为LR的损失函数时,式(12)中的x即为sigmoid的输出Y,因此
H(p, q) = Y \cdot {\rm log}P(Y=1) + (1-Y) \cdot {\rm log}P(Y=0) \tag{13}
对于所有m个样本取平均可得
\frac{1}{m} \sum_{n=1}^{m} H_n(p, q) = Y_n \cdot {\rm log}P(Y_n=1) + (1-Y_n) \cdot {\rm log}P(Y_n=0) \tag{14}
可以证明,cross entropy与使用极大似然法计算出的loss一致。

当Cross entropy作为softmax的损失函数时,式(12)变为
H(p, q) = -\sum_{i=1}^{K}O_i{\rm log}Y_i = {\rm log}Y_t = {\rm log} \frac {e^{\boldsymbol {w_t^Tx_t}}}{\sum_{k=1}^K e^\boldsymbol {{w_k^Tx_k}}} \tag{15}
其中t为真实label,t \in \{1,2,...,K\}.这里使用gradient descent来优化loss函数,式(15)对特定输入x_j的导数为
\frac {\partial H(p, q)} {\partial x_j } = -\frac {\partial \sum_{i=1}^{K}O_i{\rm log}Y_i }{\partial x_j} = - \sum_{i=1}^{K}O_i \frac {\partial {\rm log}Y_i }{Y_i}\frac{\partial Y_i }{\partial x_j} = - \sum_{i=1}^{K}O_i\frac{1}{Y_i} \frac{\partial Y_i }{\partial x_j} \tag{16}
将前面式(11)softmax的导数代入得
\frac{\partial H(p, q)} {\partial x_j }=-(\frac{O_j}{Y_j}\cdot\frac{\partial Y_j}{\partial x_j} + \sum_{i\neq j}\frac{O_i}{Y_i}\cdot\frac{\partial Y_i} {\partial x_j} ) =O_j(Y_j-1)+Y_j\sum_{i\neq j} O_i = \left\{\begin{aligned}Y_j-1, & O_j=1 \\Y_j, & O_j=0\end{aligned}\right. = Y_j-O_j \tag{17}
可以看出,softmax函数的cross entropy loss求导结果正好是预测值Y_j和真实labelO_j之差。

上一篇 下一篇

猜你喜欢

热点阅读