NLP

自然语言处理——6.4 HMM之 后向算法

2018-10-04  本文已影响0人  SpareNoEfforts

1. 基本思想

定义后向变量{\beta _T}(i)是在给定了模型\mu=(A, B, \pi)和假定在时间t状态为S_i的条件下,模型输出观察序列O=O_1O_2 …O_T的概率:
{\beta _T}(i)=p(O=O_1O_2 …O_T|q_t=S_i,\mu) ……(公式6.15)

2. 算法求解

与前向变量一样,运用动态规划计算后向量:
(1)从时刻tt+1,模型由状态S_i转移到状态S_j,并从S_j输出O_{t+1}
(2)在时间t+1,状态为S_j的条件下,模型输出观察序列O_{t+2}O_{t+3} …O_T

第一步的概率:{a_{ij}} \times {b_j}({O_{t + 1}})
第二步的概率按后向变量的定义为: {\beta _{T + 1}}(j)
于是,有归纳关系:
{\beta _T}(i) = [\sum\limits_{j = 1}^N {{b_j}({O_{t + 1}})} {a_{ij}}] \times {\beta _{t + 1}}(j) ……(公式6.16)
归纳顺序:{\beta _T}(x),{\beta _{T - 1}}(x),...,{\beta _1}(x)( x 为模型的状态)

算法图解

3. 算法描述

上一篇 下一篇

猜你喜欢

热点阅读