机器学习基石笔记:09 Linear Regression
2019-05-01 本文已影响6人
cherryleechen
图1 线性回归的假设
图2 线性回归的代价函数
图4 基于梯度下降来最小化LR代价函数
图5 梯度计算
图6 矩阵秩的性质
图7 LR权重的解析解
图8 线性回归的算法流程
图9 LR是隐式迭代的
图11 LR泛化可能的保证2
图13 LR泛化可能的保证4
图15 线性分类 vs 线性回归2
图16 线性分类 vs 线性回归3
图2 线性回归的代价函数
最小化线性回归的样本内代价函数值:
图3 LR代价函数的矩阵形式图4 基于梯度下降来最小化LR代价函数
图5 梯度计算
图6 矩阵秩的性质
图7 LR权重的解析解
图8 线性回归的算法流程
图9 LR是隐式迭代的
线性回归算法泛化可能的保证:
图10 LR泛化可能的保证1图11 LR泛化可能的保证2
根据矩阵的迹的性质:,得:
。
这种转换的物理意义:
原来有一个有个自由度的向量,投影到一个有维的空间(代表一列的自由度,即单一输入样本的参数),而剩余的自由度最大只有。
图13 LR泛化可能的保证4
线性分类是近似求解,线性回归是解析求解;
线性分类中使用0/1误差,线性回归中使用均方误差;
误差方面,线性分类能小于线性回归,但线性回归速度更快;
可以用线性回归的参数结果初始化线性分类的参数值,
减少迭代过程,加速求解。
图15 线性分类 vs 线性回归2
图16 线性分类 vs 线性回归3