无监督第五节:LDA (Latent Dirichlet All
1.算法实现
LDA是生成式概率模型。基本的观点是一个文档由多个隐主题生成,每个主题是由单词的分布式表达。
LDA假设在语料库D中每个文档的生成过程如下:
-
选择 N ∼ Poisson(ξ).
-
选择θ∼Dir(α).
-
对于每个 N 单词
:
(a) 选择一个主题
∼ Multinomial(θ).
(b) 选择单词from
, 基于主题
的多项式分布.
1.1一些简化的假设:
1.主题数量k已知
2.单词的概率由参数控制
1.2狄利克雷分布的形式为:
参数 是一个k 维的向量,并且每个元素大于0,
服从Gamma 分布
1.3 求解过程
已知参数, 联合分布主题混合的参数
, 表示主题的参数 z,表示文档的参数w:

对 积分,并对z求和得到关于文档的边缘分布:

所有文档的边缘分布相乘,得到整个语料库的概率:

1.4LDA模型图示:

参数 和参数
是语料库级别的参数,在生成语料库的过程中使用。
变量是文档级别的参数,每个文档采样一次。
变量和
是单词级别的参数,每个文档中每个单词都采样一次.
1.5LDA和可交换性
一组随机变量如果联合分布和变量的排列顺序无关,则称这组变量是可交换的。

在LDA中,我们假设单词是由主题生成的,并且这些主题在文档中是无限可交换的,

其中 是关于主题多项式分布的随机变量。
`.6连续混合一元语法
通过对隐主题变量z积分。可以得到单词分布:

这是一个随机量,因为他依赖于
我们定义接下来的生成过程, 对于一个文档w
1.选择θ∼Dir(α)
2.对于每个N的单词:
(a)从中选择一个单词
这个过程定义一篇文档的边缘分布看成一个连续的混合分布

2.预测和参数估计
2.1.inference:
inference的关心的问题使用LDA来计算隐变量z的后验分布:

这个分布通常很难计算。通过normaliza 分布,并且计算边缘分布。

这个后验分布很难计算,但是通过一些变分推断的方法还是可以得到。
2.2 variational inference
基本的观点是使用jensen's 不等式来获得一个调整的下界,变分参数通过优化过程来试图找到最接近的可能的下界。

一个简单的方式是通过鲜花原始的计算图,将一些边和节点移去。在LDA中,原始的图是左图,通过把 移去,生成右边含有自由变分参数的图。
新的计算图使用如下变分分布:

是狄利克雷参数,多项式参数(φ1 , . . . , φN ) 是自由变量参数。
得到简化的概率分布后,下一步是开始的优化问题是决定变分参数的值。

优化这个变分参数是通过最小化KL散度来实现,并且吧他们设为0,得到以下的更新参数。

在文本的语言中,优化参数 是文档制定的。特别的,我们认为狄利克雷参数
是一个文档的主题表达。

2.3参数估计方法:
经验贝叶斯方法来估计LDA中的参数。给定一个语料D,我们希望找到参数来最大化边缘似然概率:

计算 比较困难,可以通过变分EM算法来估计。
1.E step,对于每个文档,找到最优的变分参数。
2.M step, 最大化结果的下界。
重复上述几步直到下界收敛。