吴恩达机器学习笔记-Logistic回归模型
回归函数
在逻辑回归模型中我们不能再像之前的线性回归一样使用相同的代价函数,否则会使得输出的结果图像呈现波浪状,也就是说不再是个凸函数。代价函数的表达式之前有表示过,这里我们把1/2放到求和里面来。
这里的求和部分我们可以表示为:
很显然,如果我们把在之前说过的分类问题的假设函数带进去,即,得到的结果可能就是上述所说的不断起伏的状况。如果这里使用梯度下降法,不能保证能得到全局收敛的值,这个函数就是所谓的非凸函数。因此我们需要找一个不同的代价函数,并且是个凸函数,使得我们可以使用好的算法并找到全局最小值。这个代价函数如下所示:
我们可以画出的图像如下所示,分别为当y=1和y=0时的图像:
那根据图像我们可以得出结论:
如果y的值为0,则当假设函数输出0时代价函数也为0,如果假设函数趋向于1,则代价函数趋向于无穷大;如果y的值为1,则当假设函数输出1时代价函数为0,如果假设函数趋向于0,则代价函数趋向于无穷大。
上述的代价函数可以简化成如下所示:
若y=1则第二项为0,若y=0则第一项为0,因此此等式和上述的分段描述的函数是等价的。
那么可以写出完整的代价函数:
用向量表示则是:
梯度下降
我们之前有讲过梯度下降算法的概念:
将公式带入进行导数计算后得到:
用向量法表示:
当然要注意这个算法和我们在线性回归中的方法一样,我们需要同步的更新所有的的值。
高级优化
换个角度来看梯度下降的话,实际上就是我们有一个代价函数,我们需要使它最小化。我们要做的就是编写代码来计算输入时,得到和对的偏导。梯度下降本质上就是不断重复这个过程来更新参数。也就是说梯度下降就是编写代码计算出和的偏导带入梯度下降公式中,然后它就可以为我们最小化这个函数。实际上对于梯度下降而言,不是一定要计算出的值,但如果为了能更好的监控到的收敛性,需要自己编写代码来计算代价函数和偏导性。
除了梯度下降之外还有一些其他算法来优化代价函数。包括共轭梯度法BFGS和L-BFGS还有Conjugate gradient。这些算法相对梯度下降算法更高级但同时也是更加的复杂。这些算法都暂时不在当前学习的范畴内。不过这里可以简单说一下他们的特性:
- 不需要手动选择学习速率
- 往往比梯度下降算法要快一点
- 但相对来说更加的复杂
我们可以通过写一个方法来计算和的值:
function [jVal, gradient] = costFunction(theta)
jVal = [...code to compute J(theta)...];
gradient = [...code to compute derivative of J(theta)...];
end
其中jVal就是我们代价函数的值,第二个就是梯度。下图就是一个简单的例子以及对应的octave的代码:
多类别分类问题
接下来我们来介绍多类别的分类问题,也就是说我们的类别可能不止两种。比如天气可能是晴天、阴天、雨天,或者邮件分类可能包括工作、朋友、垃圾邮件等等。那这个时候的y={0,1}就不再适用了,而是y={0,1,2...,n}。下图中,左边代表的是之前说的二元分类问题的数据集,有两种不同的符号表示;右边的是多类别分类问题,用三种不同的符号表示三个不同的类别中的样本。
我们要做的就是找到合适的算法来进行分类,在二元分类问题中我们知道了通过回归来解决分类问题,利用直线将数据分成正类和负类。利用一对多的思想我们同样可以将其应用在多分类问题上。下图为一个简单的有三种类别的分类问题。
我们可以创建一个新的数据集将类别1当做正类,类别2和3设定为负类,拟合出一个逻辑回归分类器。同样的对类别2和类别3也可以拟合出其他逻辑回归分类器和。总的来说就是。即给定x和时y=i的概率。当输入一个新的x时,我们要做的就是在这三个分类器中输入x,然后选择h最大的类别,即选出三个分类器中可信度最高的一个
以上,为吴恩达机器学习logistic regression章节的内容。