第二天、机器学习中的数学基础
基于视频:七月算法-深度学习课程-5月-第一课:机器学习中的数学
https://www.youtube.com/watch?v=T0WrSQixuxU&list=PLwTxjmW4U1YSsLZ5OKd67KxtoSdJKAFgE
一、微积分重点
1、梯度:多元函数的一阶导数,对各元分别求导。一元函数的时候就是一阶导数。
2、海森矩阵:多元函数的二阶导数。
![](https://img.haomeiwen.com/i13133110/99eb1f77ced52e95.png)
3、二次型:XTAX ,形式对称,用矩阵的形式表示一个多项式。
比如:
![](https://img.haomeiwen.com/i13133110/e91f7edc93862903.png)
二次型的重要特点:
![](https://img.haomeiwen.com/i13133110/1edf8a93c92fd36a.png)
4、泰勒级数
平衡点:即局部的极值点。
鞍点:这一点的一阶、二阶导数都等于0。
一阶导数等于0的点:有可能是:(1)极小值点(二阶导数大于0) (2)极大值点(二阶导数小于0)(3)鞍点(二阶导数等于0)———>其实可以通过画图来理解的。
(1)泰勒级数的展开(标量):
![](https://img.haomeiwen.com/i13133110/da6c32aedf07a4ba.png)
极值点:一阶导数等于0
(2)泰勒级数的展开(矢量):
![](https://img.haomeiwen.com/i13133110/6cecc5a128b34469.png)
极值点:梯度等于0。
此时,多元函数的二阶导数大于零表示海森矩阵的特征根都大于零。(正定:矩阵的特征值都大于0)
5、梯度下降法
求极值点时,求解一阶导数等于零的方程,通常比较难解。
向量的内积:aTb = ||a||2*||b||2*cos(theta)。theta为函数梯度方向,函数最快上升。theta为函数负梯度方向,函数最快下降。
优化的核心:方向(负梯度),步长。
牛顿法:考虑到二阶导数。
二、概率论重点
1、随机函数的表现形式:
(1)分布函数:离散变量
(2)累积分布函数:连续变量 对概率密度函数求积分
(3)概率密度函数:连续变量 对累积分布函数求导
![](https://img.haomeiwen.com/i13133110/60cb8b938fa78fae.png)
![](https://img.haomeiwen.com/i13133110/88bd95a2b3a100f7.png)
2、高斯分布:
![](https://img.haomeiwen.com/i13133110/7453fe2c7bc947f0.png)
3、贝叶斯公式:(非常重要)
![](https://img.haomeiwen.com/i13133110/c33cb7471adbb790.png)
贝叶斯公式的小练习:方法:直接带入贝叶斯公式。(吸毒|呈阳性——>呈阳性|吸毒)
P(结果呈阳性):后验概率
![](https://img.haomeiwen.com/i13133110/3d6ffe7ef7fc02df.png)
三、矩阵重点
1、特征值与特征向量:
2、对称矩阵的对角化:(机器学习中的样本的协方差都是对称矩阵)
对称矩阵的特征值一定是实数。
![](https://img.haomeiwen.com/i13133110/b5e9dae543f44de7.png)
3、PCA特征分解:
(1)PCA的本质:就是协方差矩阵的相似对角化
![](https://img.haomeiwen.com/i13133110/fd2c1c0805a5f184.png)
(2)PCA的推导过程:
![](https://img.haomeiwen.com/i13133110/a212c1feffb870e9.png)
(3)PCA的举例:
![](https://img.haomeiwen.com/i13133110/14d87ffb1e676587.png)
四、凸优化重点
1、一般约束优化问题:
![](https://img.haomeiwen.com/i13133110/17272407eedf22c9.png)
2、KKT条件:非常重要
![](https://img.haomeiwen.com/i13133110/90f6109a29de8597.png)