高斯混合模型

2021-03-10  本文已影响0人  Jarkata

本文为转载,原文链接:高斯混合模型(GMM) - 戴文亮的文章 - 知乎
https://zhuanlan.zhihu.com/p/30483076

混合模型(Mixture Model)

混合模型是一个可以用来表示在总体分布(distribution)中含有 K 个子分布的概率模型,换句话说,混合模型表示了观测数据在总体中的概率分布,它是一个由 K 个子分布组成的混合分布。混合模型不要求观测数据提供关于子分布的信息,来计算观测数据在总体分布中的概率。

高斯模型

单高斯模型

当样本数据 X 是一维数据(Univariate)时,高斯分布遵从下方概率密度函数(Probability Density Function):


其中\mu为数据均值(期望),\sigma为数据标准差 (Standard deviation)

当样本数据 X 是多维数据(Multivariate)时,高斯分布遵从下方概率密度函数:


其中\mu为数据均值(期望),\Sigma为协方差(Covariance),D为数据梯度

高斯混合模型

高斯混合模型可以看作是由 K 个单高斯模型组合而成的模型,这 K 个子模型是混合模型的隐变量(Hidden variable)。一般来说,一个混合模型可以使用任何概率分布,这里使用高斯混合模型是因为高斯分布具备很好的数学性质以及良好的计算性能

举个不是特别稳妥的例子,比如我们现在有一组狗的样本数据,不同种类的狗,体型、颜色、长相各不相同,但都属于狗这个种类,此时单高斯模型可能不能很好的来描述这个分布,因为样本数据分布并不是一个单一的椭圆,所以用混合高斯分布可以更好的描述这个问题,如下图所示:

首先定义如下信息:

高斯混合模型的概率分布为:
P(x|\theta)=\mathop{\sum}\limits_{k=1}^{K}\alpha_k \phi (x|\theta_k)
对于这个模型而言,参数\theta= (\tilde{\mu_k},\tilde{\sigma_k},\tilde{\alpha_k}),也就是每个子模型的期望、方差(或协方差)、在混合模型中发生的概率。

对于高斯混合模型,Log-Likelihood函数是:
logL(\theta)=\mathop{\sum}\limits_{j=1}^{N}logP(x_j|\theta) =\mathop{\sum}\limits_{j=1}^{N} log(\mathop{\sum}\limits_{k=1}^{K} \alpha_k \phi(x|\theta_k))

如何计算高斯混合模型的参数呢?这里我们无法像单高斯模型那样使用最大似然法来求导求得使 likelihood 最大的参数,因为对于每个观测数据点来说,事先并不知道它是属于哪个子分布的(hidden variable),因此 log 里面还有求和,对于每个子模型都有未知的 \alpha_k,\sigma_k,\mu_k ,直接求导无法计算。需要通过迭代的方法求解

EM算法

EM 算法是一种迭代算法,1977 年由 Dempster 等人总结提出,用于含有隐变量(Hidden variable)的概率模型参数的最大似然估计

每次迭代包含两个步骤:

  1. E-step: 求期望E(\gamma_{jk}|X,\theta) for all j=1,2,...N
  2. M-step: 求极大,计算新一轮迭代的模型参数

这里不具体介绍一般性的 EM 算法(通过 Jensen 不等式得出似然函数的下界 Lower bound,通过极大化下界做到极大化似然函数),只介绍怎么在高斯混合模型里应用从来推算出模型参数。

通过 EM 迭代更新高斯混合模型参数的方法(我们有样本数据 x_1,x_2,...,x_N和一个有K个子模型的高斯混合模型,想要推算出这个高斯混合模型的最佳参数):

至此,我们就找到了高斯混合模型的参数。需要注意的是,EM 算法具备收敛性,但并不保证找到全局最大值,有可能找到局部最大值。解决方法是初始化几次不同的参数进行迭代,取结果最好的那次。

Reference

  1. 《统计学习方法》第九章 - EM算法及其推广——李航
  2. Mixture model - Wikipedia
  3. 高斯混合模型(GMM)介绍以及学习笔记
上一篇下一篇

猜你喜欢

热点阅读