百面机器学习|学习笔记

百面机器学习|第六章概率图模型知识点(一)

2019-01-26  本文已影响19人  蓝白绛

前言

如果你能找到这里,真是我的幸运~这里是蓝白绛的学习笔记,本集合主要针对《百面机器学习——算法工程师带你去面试》这本书。主要记录我认为重要的知识点,希望对大家有帮助。

第六章 概率图模型

引导语

概率图中的节点分为隐含节点观测节点,边分为有向边无向边。从概率论的角度,节点对应于随机变量,边对应随机变量的依赖或相关关系,其中有向边表示单向的依赖,无向边表示相互依赖关系。
概率图模型分为贝叶斯网络马尔可夫网络两大类。贝叶斯网络可以用一个有向图结构表示,马尔可夫网络可以表示成一个无向图的网络结构。
概率图模型包括了朴素贝叶斯模型、最大熵模型、隐马尔可夫模型、条件随机场、主题模型。

0、写在前面

书中本章公式较多,这里我尽量少写一点公式,尽量摘抄文字表述,方便阅读。这一篇为第六章的第一部分,包括朴素贝叶斯模型、最大熵模型、隐马尔可夫模型、最大熵马尔可夫模型、条件随机场。第二部分再整理主题模型,包括pLSA和LDA。

1、概率图模型的联合概率分布

  1. 贝叶斯网络和马尔可夫网络两大类网络的联合概率分布计算如下图: 两种网络的联合概率分布

2、概率图表示

  1. 朴素贝叶斯模型的原理:朴素贝叶斯模型通过预测指定样本属于特定类别的概率P(y_i|x)来预测该样本的所属类别,即y=\max_{y_i}P(y_i|x)P(y_i|x)可以写成P(y_i|x)=\frac{P(x|y_i)P(y_i)}{P(x)}=\frac{P(x_1|y_i)P(x_2|y_i)...P(x_n|y_i)P(y_i)}{P(x)}其中P(x_1|y_i),P(x_2|y_i),...,P(x_n|y_i)以及P(y_i)可以通过统计训练样本得到。可以看到后验概率P(x_j|y_i)取值决定了分类的结果,并且特征x_j都由y_i取值所影响。
  2. 最大熵原理是概率模型学习的一个准则,指导思想是在满足约束条件的模型集合中选取熵最大的模型,即不确定性最大的模型。
  3. 给定离散随机变量xy上的条件概率分布P(y|x),定义在条件概率分布上的条件熵H(P)=-\sum_{x,y}\tilde{P}(x)P(y|x)\log P(y|x)其中\tilde{P}(x)为样本在训练数据集上的经验分布,即x的各个取值在样本中出现的频率统计。最大熵模型的目的是要学习到合适的分布P(y|x),使得条件熵H(P)取值最大
    在对训练集一无所知时,最大熵模型认为P(y|x)是均匀分布的。我们希望从训练集中找到一些规律,消除一些不确定性,则用到特征函数f(x,y),它描述了输入x和输出y之间的一个规律。
    为了使学习到的模型P(y|x)能够正确捕捉规律,我们加入如下约束:E_{\tilde{P}}(f)=E_P(f) E_{\tilde{P}}(f)=\sum_{x,y}\tilde{P}(x,y)f(x,y) E_P(f)=\sum_{x,y}\tilde{P}(x)P(y|x)f(x,y)即特征函数f(x,y)关于经验分布\tilde{P}(x,y)的期望等于特征函数f(x,y)关于模型P(y|x)和经验分布\tilde{P}(x)的期望。
    则给定训练集T=\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\}M个特征函数,则最大熵模型的学习等价于约束最优化问题\max_PH(P)=-\sum_{x,y}\tilde{P}(x)P(y|x)\log P(y|x) s.t., E_{\tilde{P}}(f_i)=E_P(f_i),\forall i=1,2,...,M \sum_yP(y|x)=1
    求解得到最大熵模型的表达式为:P_w(y|x)=\frac{1}{Z}\exp(\sum_{i=1}^{M}w_if_i(x,y))
    最终,最大熵模型归结为学习最佳的参数w,使得P_w(y|x)最大化。

3、生成式模型与判别式模型

  1. 生成式模型与判别式模型的区别:假设可观测到的变量集合为X,需要预测的变量集合为Y,其他变量集合为Z
  1. 常见的概率图模型有:朴素贝叶斯、最大熵模型、贝叶斯网络、隐马尔可夫模型、条件随机场、pLSA、LDA等。

4、马尔可夫模型

  1. 马尔可夫过程:满足无后效性的随机过程。t时刻的状态只与前一个状态有关,则其称为马尔可夫过程,时间和状态的取值都是离散的马尔可夫过程也成为马尔可夫链
  2. 隐马尔可夫模型是对含有未知参数(隐状态)的马尔可夫链进行建模的生成模型,如下图所示:


    6-4 隐马尔可夫模型
  1. 隐马尔可夫模型中,参数包括了隐状态间的转移概率、隐状态到观测状态的输出概率隐状态x的取值空间观测状态y的取值空间以及初始状态的概率分布
  2. 隐马尔可夫模型包括概率计算问题预测问题学习问题三个基本问题:
  1. 隐马尔可夫模型最大熵马尔可夫模型:隐马尔可夫模型等用于解决序列标注的模型中,常常对标注进行了独立性假设,t时刻的状态只与前一个状态有关,观测序列中各个状态仅仅取决于它对应的隐状态。但实际上,隐状态不仅和单个观测状态相关,还和观测序列的长度、上下文等相关,于是引出了最大熵马尔可夫模型(Maximum Entropy Markov Model,MEMM)。它去除了隐马尔可夫中观测状态相互独立的假设,考虑了整个观测序列,获得了更强的表达能力。
  1. 最大熵马尔可夫模型的标注偏置问题:如图6.7所示,状态1倾向于转移到状态2,状态2倾向于转移到状态2自身,但实际计算得到的最大概率路径为1-1-1-1。这是因为2可以转移到1、2、3、4、5,但1只能转移到1、2,概率更加集中。由于局部归一化的影响,隐状态对倾向于转移到后续状态更少的状态,以提高整理的后验概率。
    6-4 最大熵马尔可夫的标注偏置问题
  2. 条件随机场和最大熵马尔可夫模型:条件随机场(Conditional Random Field,CRF)在最大熵马尔可夫模型的基础上,进行了全局归一化,如下图所示。
    6-4 条件随机场模型
    条件随机场建模如下:p(x_{1...n}|y_{1...n})=\frac{1}{Z(y_{1...n})}\prod_{i=1}^{n}\exp(F(x_i,x_{i-1},y_{1...n}))其中归一化因子Z(y_{1...n})是在全局范围进行归一化,枚举了整个隐状态序列x_{1...n}的全部可能,从而解决了局部归一化带来的标注偏置问题。

5、主题模型

  1. 常见的主题模型有:pLSA、LDA等。pLSA是用一个生成模型来建模文章的生成过程,LDA是pLSA的贝叶斯版本,其文本生成过程与pLSA基本相同,但其为主题分布和词分布分别加了两个狄利克雷(Dirichlet)先验。

小结

这节讲了几个概率图模型,主要讲了思想以及模型的定义。具体求解涉及到动态规划,最大期望算法,书里只是一笔带过了。这本书越到后面东西越多也越来越难了,小白表示有点吃不消了,所以今天这一章的内容打算分两篇来整理。

结尾

如果您发现我的文章有任何错误,或对我的文章有什么好的建议,请联系我!如果您喜欢我的文章,请点喜欢~*我是蓝白绛,感谢你的阅读!

上一篇 下一篇

猜你喜欢

热点阅读