DataWhale-03-EM算法

2020-04-23  本文已影响0人  evanzh7

理论部分
EM算法,全称Expectation Maximization Algorithm,译作最大期望化算法期望最大算法,它是一种迭代算法,用于含有隐变量(hidden variable)的概率参数模型的最大似然估计或极大后验概率估计。

  1. 选择参数的初值\theta^{0},开始迭代
  2. E步:记\theta^{i}为第i次迭代参数\theta的估计值,在第i+1次迭代的E步,计算
    \begin{aligned} Q\left(\theta, \theta^{i}\right) &=E_{Z}\left[\log P(Y, Z | \theta) | Y, \theta^{\prime}\right] \\ &=\sum_{Z} \log P(Y, Z | \theta) P\left(Z | Y, \theta^{i}\right) \end{aligned}
    这里P\left(Z | Y, \theta^{i}\right)是在给定观测数据Y和当前的参数估计\theta^{i}下隐变量数据Z的条件概率分布。
  3. M步骤:求使Q\left(\theta, \theta^{i}\right)极大化的\theta,确定第i+1次迭代的参数的估计值\theta^{i+1}
    \theta^{i+1}=\arg \max _{\theta} Q\left(\theta, \theta^{i}\right)
    Q\left(\theta, \theta^{i}\right)是EM算法的核心,称为Q函数(Q function),这个是需要自己构造的。
  4. 重复第2,3步骤,直到收敛,收敛条件:\| \theta^{i+1}-\theta^{i \|<\varepsilon_{1}}
    或者,
    \left\|Q\left(\theta^{i+1}, \theta^{i}\right)-Q\left(\theta^{i}, \theta^{i}\right)\right\|<\varepsilon_{2},收敛迭代就结束了。

练习部分

Reference

  1. 阿拉丁吃米粉:高斯混合模型(GMM)及其EM算法的理解
上一篇 下一篇

猜你喜欢

热点阅读