CS229之线性回归
2019-04-07 本文已影响0人
__cbf0
ok,这次打算重新刷一遍cs229,也强迫自己做个记录吧,一直都挺佩服那些能把技术文章写得通俗易懂的大神们....
从第二章线性代数开始吧。
目录:
1. 模型的描述和代价函数
2. 梯度下降
3. 线性模型的梯度下降
1. 模型的描述和代价函数
![](https://img.haomeiwen.com/i11645195/e5a08a9d3d6395e7.png)
使用误差平方和来作为损失函数,最小化参数
2. 梯度下降
直观地理解梯度下降:
1)只包含一个参数:
![](https://img.haomeiwen.com/i11645195/a57da4decc307216.png)
目标是找到一个, 使得损失函数最小。可以看到
是凸函数,可以求得全局最小点。
(凸函数:简单的定义是,没有局部最小值,可以用随机梯度下降求得全局最小值的函数形式,像碗状)
![](https://img.haomeiwen.com/i11645195/275c278662be8e2e.png)
2)两个参数:
![](https://img.haomeiwen.com/i11645195/ddd61e2257e249df.png)
学会看等高线图
![](https://img.haomeiwen.com/i11645195/0157c983b14f7d2d.png)
由于初始化的位置不同,可能陷入局部最小点
![](https://img.haomeiwen.com/i11645195/bdfef427d43e76c1.png)
参数需同时更新
![](https://img.haomeiwen.com/i11645195/592e1108261e4e20.png)
批梯度下降
![](https://img.haomeiwen.com/i11645195/18bf2a850efb4e69.png)
3. 线性模型的梯度下降
![](https://img.haomeiwen.com/i11645195/89116d008f24cde0.png)
求导的基本功还得再扎实细心些
![](https://img.haomeiwen.com/i11645195/89d5e4908b5b37ec.png)
![](https://img.haomeiwen.com/i11645195/bcbdfdbd6df609d4.png)
满足凸函数
![](https://img.haomeiwen.com/i11645195/df07e5b1a325222b.png)
![](https://img.haomeiwen.com/i11645195/801a40c60584bdf8.png)