机器学习相关的数学知识

2018-12-06  本文已影响0人  YANWeichuan
数学概念 讲解
交叉熵 https://blog.csdn.net/tsyccnh/article/details/79163834
最大似然估计 https://www.matongxue.com/madocs/447.html
贝叶斯定理 https://www.matongxue.com/madocs/279.html
高斯分布 https://www.cnblogs.com/jermmyhsu/p/8251013.html
PCA https://www.matongxue.com/madocs/1025/

知识点理解:

信息量->熵->相对熵(KL散度)->交叉熵->分类的loss

标签
Label 0 1 0
Pred 0.3 0.6 0.1

那么
loss= −(0×log(0.3)+1×log(0.6)+0×log(0.1) = −log(0.6)

最大似然估计

PCA

方差: Var(X) = \sum_{i=1}^{n}X_i^2
样本协方差: Cov(X, Y) = \sum_{i=1}^{n}X_iY_i

Q = \frac{1}{n} P =( \begin{matrix} Var(X) & Conv(X, Y) \\ Conv(X, Y) & Var(y) \\ \end{matrix} )
P = U( \begin{matrix} σ_1& 0 \\ 0 & σ_2 \\ \end{matrix} )U^T
示例:

上一篇下一篇

猜你喜欢

热点阅读