逻辑回归

2020-05-16  本文已影响0人  拿着苹果学猪叫

一.代价函数的理解

假设模型(函数):h\theta (x)=\theta_{0}+ \theta _{1}x

模型(函数)参数:\theta _{i},例如:\theta_{0}, \theta _{1}

参数的设定对模型拟合程度(拟合真实情况)起到决定性作用

假设函数:h\theta (x)                   预测值:h\theta (x_{i})

真实函数:y                            真实值:y_{i}

预测值和真实值(实际值)的差的平方:(h(x_{i})-y_{i})^2

意义:平方差越小,预测值和实际值越接近

预测值和真实值(实际值)的差的平方的总和:min\sum\nolimits h(x_{i})-y_{i})^2

意义:每个预测值和实际值都很接近,那么假设函数就能代表(接近)真实函数

m:样本容量

i: 样本中的第i个值

平均误差:\frac{1}{m} \sum\nolimits h\theta (x_{i})-y_{i})^2

累积和的1/2

\frac{1}{2m} \sum\nolimits h\theta (x_{i})-y_{i})^2

损失函数(代价函数):预测值和真实值的离均差平方和。J(\theta_{0} ,\theta_{1} ,\theta_{2} \cdot \cdot \cdot )

假设函数:h\theta (x)=\theta x

参数:\theta

代价函数:J(\theta)

假设函数:h\theta (x)=\theta_{0}+\theta_{1}x

参数:\theta_{0},\theta_{1}

代价函数:J(\theta_{0},\theta_{1})

J(\theta_{0},\theta_{1})的等高线图

这里有三个点有相同的J(\theta_{0},\theta_{1})

在同一条线上的点,他们的J(\theta_{0},\theta_{1})值是相同的

相当于J(\theta_{0},\theta_{1})三维的图被拍扁了,用少量的线表示不同的高度。

加入J(\theta_{0},\theta_{1})三维图是——中间低,两边高的——山谷图

山谷的最低值在,一圈一圈圆圈的最中间的位置

二.梯度下降法的理解

步骤:

1.设定\theta_{0},\theta_{1}的初始值(\theta_{0}=0,\theta_{1}=0

2.持续改变\theta_{0},\theta_{1}去减少J(\theta_{0},\theta_{1})

:=  代表赋值。

\theta j:=\theta j -\alpha \frac{\alpha J(\theta_{0},\theta_{1})}{\alpha\theta j }

\alpha :代表步伐大小

前一个偏导和后一个偏导相比,如果前一个偏导小时候,用后一个偏导代替作为前一个偏导再和下一个偏导相比。最终找到最小的。

那个点是局部最优解,那个点的偏导是0

这个只有全局最优

上一篇 下一篇

猜你喜欢

热点阅读