Tech Daily Life关于搜索,我们聊聊机器学习与模式识别

Syntagmatic 关系发现:互信息

2015-06-16  本文已影响554人  朱小虎XiaohuZhu

Neil Zhu,简书ID Not_GOD,University AI 创始人 & Chief Scientist,致力于推进世界人工智能化进程。制定并实施 UAI 中长期增长战略和目标,带领团队快速成长为人工智能领域最专业的力量。
作为行业领导者,他和UAI一起在2014年创建了TASA(中国最早的人工智能社团), DL Center(深度学习知识中心全球价值网络),AI growth(行业智库培训)等,为中国的人工智能人才建设输送了大量的血液和养分。此外,他还参与或者举办过各类国际性的人工智能峰会和活动,产生了巨大的影响力,书写了60万字的人工智能精品技术内容,生产翻译了全球第一本深度学习入门书《神经网络与深度学习》,生产的内容被大量的专业垂直公众号和媒体转载与连载。曾经受邀为国内顶尖大学制定人工智能学习规划和教授人工智能前沿课程,均受学生和老师好评。

Syntagmatic 关系发现:互信息

Paste_Image.png

互信息 I(X;Y):衡量信息降低

在我们知道 Y 的情形下能够降低 X 多少熵?

Paste_Image.png

属性:

  1. 非负性:I(X;Y) >= 0
  2. 对称性:I(X;Y) = I(Y;X)
  3. 独立性:I(X;Y) = 0 iff X 和 Y 是独立的

当我们固定 X 来对不同的 Y 进行排名时,I(X;Y) 和 H(X|Y) 给出了相同的顺序。但是 I(X;Y) 允许我们比较不同的 (X,Y) 对。

用作 syntagmatic 关系挖掘的互信息 I(X;Y)

Paste_Image.png

当 “eats” 出现时,其他什么词也可能会出现?
也就是其他哪些词有与“eats”更高的互信息?
互信息越高,出现的可能性就越大

使用 KL-divergence 来重写互信息

Paste_Image.png

散度度量了实际的联合分布与在独立假设下的期望分布的散度(divergence)。散度越大,互信息就越大。

互信息中用到的概率

Paste_Image.png

上图中,细分了各种共现的情形。

不同概率之间的关系

Paste_Image.png

这些都是相应的概率之间的限制条件。

互信息的计算

Paste_Image.png

依赖数据的概率预测

Paste_Image.png

一般来说,都是通过共现数据来估计概率值

平滑:解决计数为 0 的出现次数

Paste_Image.png

通过引入伪数据让所有的事件都有非零的计数

syntagmatic 关系发现的总结

词关联挖掘的总结

上一篇 下一篇

猜你喜欢

热点阅读