线性回归
2018-04-26 本文已影响0人
大熊_7d48
![](https://img.haomeiwen.com/i7563917/3c29d1f43018b281.png)
误差
![](https://img.haomeiwen.com/i7563917/b1078fb9d64451dd.png)
e 约等于 2.7
![](https://img.haomeiwen.com/i7563917/086e50e70b39993a.png)
![](https://img.haomeiwen.com/i7563917/ba1b43c28e97c907.png)
什么是似然函数?
用数据去推参数,什么样的参数跟我们的数据组合以后更接近真实值
这里引入三个问题:
1.为什么引入似然函数? 预测值是我真实值的一个可能,也就是目标,希望它越大越好
2.为什么对似然函数用log化简? 是的算法计算简单化 log A*B = log A+ log B
3.为什么似然函数右边越小越好? 左边-右边, 左边是常数, 为了使得预测值越大,所以右边要小
![](https://img.haomeiwen.com/i7563917/176f0c6974c574de.png)
![](https://img.haomeiwen.com/i7563917/f59e74eb5c050cce.png)
残差平方和: (真实值- 预测值)**2
类似方差项: (预测值 - 平均值)**2
梯度下降原理:
![](https://img.haomeiwen.com/i7563917/185ef4af26b3795f.png)
![](https://img.haomeiwen.com/i7563917/58c0e807e1fa43a3.png)
梯度下降方法对比:
![](https://img.haomeiwen.com/i7563917/a2640fc2fe4e5c94.png)
学习率对结果的影响:
![](https://img.haomeiwen.com/i7563917/f5ad0ed12b28386e.png)