哲哲的ML笔记(十二:逻辑回归中的代价函数)
2021-03-27 本文已影响0人
沿哲
代价函数
要定义用来拟合参数的优化目标或者叫代价函数
对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。理论上来说,我们也可以对逻辑回归模型沿用这个定义,但是问题在于,当我们将带入到这样定义了的代价函数中时,我们得到的代价函数将是一个非凸函数(non-convexfunction)
这意味着我们的代价函数有许多局部最小值,这将影响梯度下降算法寻找全局最小值。
重新定义逻辑回归的代价函数
这样构建的函数的特点是:当实际的 且也为 1 时误差为 0,当 但不为1时误差随着变小而变大
由于只能取0或1,所以可以写成
梯度下降
为了得到参数,,最小化代价函数,使用梯度下降方法,
这个式子正是我们用来做线性回归梯度下降的!!!
对于线性回归假设函数
对于逻辑回归假设函数