人工智能里的数学修炼 | 概率图模型 : 隐马尔可夫模型
人工智能里的数学修炼 | 隐马尔可夫模型:前向后向算法
人工智能里的数学修炼 | 隐马尔可夫模型 : 维特比(Viterbi)算法解码隐藏状态序列
人工智能里的数学修炼 | 隐马尔可夫模型:基于EM的鲍姆-韦尔奇算法求解模型参数
已经较为清楚的讲述了隐马尔可夫模型及其在实际应用的三个问题:1. 生成观察序列概率, 2. 预测问题, 3. 模型参数学习问题。
这里介绍求解第一个生成观察序列概率的前向后向算法,前向后向算法实际上是两个算法的合成,即前向算法和后向算法,二者相似,这里主要以前向算法为例进行介绍
一、前向算法
前向算法针对的是隐马尔可夫模型的概率计算问题,即给定一个模型参数已知的隐马尔可夫模型(HMM)和一组观测序列,求HMM生成这组观测序列的概率
前向算法定义了一个“前向概率”的定义,即:
给定隐马尔可夫模型,定义1到t时刻部分的观测序列为,则t时刻的状态为的概率为前向概率, 记做
定义说明:由于每个状态生成一个观测变量,那么在时刻就会生成个观测变量,在时刻处于状态的概率就是前向概率。状态的的取值范围为,详见 人工智能里的数学修炼 | 概率图模型 : 隐马尔可夫模型
利用定义的前向概率,可以很容易的从1到递推到得到观测序列概率,共有三步:
- 计算初值(t=1)
这里表示初始状态下状态变量为的概率, 表示从状态推出观测的输出观测概率 - 递推环节,对于
这里的表示由状态转移到状态的状态转移概率,表示由状态推出观测的输出观测概率 - 到达指定时刻T
前向算法的求解过程其实是相当简洁明了的,即从1到T时刻,对应于每一个观测值都计算其由前一时刻状态转移后状态输出概率各种可能的和。
二、后向算法
后向算法是前向算法的逆过程,定义了相应的“后向概率”,其原理其实是相似的,这里不做多余的赘述
来源:CSDN
作者:Liangjun_Feng
链接:https://blog.csdn.net/Liangjun_Feng/article/details/95101555