如何将隐马尔可夫模型应用于长尾词的识别与处理?
- 内容介绍
- 文章标签
- 相关推荐
本文共计247个文字,预计阅读时间需要1分钟。
动态模型:离散HMM,连续:线性:卡尔曼滤波,非线性:粒子滤波。HMM的两个假设:零次马尔可夫假设,当前的隐变量只与前一个隐变量有关;一阶马尔可夫假设,观测变量只与它的隐变量有关。
动态模型:
离散:HMM
连续:
线性:kalman Filter
非线性:Particle Filter
HMM的两个假设:
①齐次马尔可夫假设
当前的隐变量只与前一个隐变量有关
②观测独立假设
观察变量只与它的隐变量有关
三个问题:
1.evaluation
2.learning
3.decoding
evaluation:
已知(初始概率分布Π,转移矩阵A,发射矩阵B) => 入
求P(O|入)
前向算法:
本文共计247个文字,预计阅读时间需要1分钟。
动态模型:离散HMM,连续:线性:卡尔曼滤波,非线性:粒子滤波。HMM的两个假设:零次马尔可夫假设,当前的隐变量只与前一个隐变量有关;一阶马尔可夫假设,观测变量只与它的隐变量有关。
动态模型:
离散:HMM
连续:
线性:kalman Filter
非线性:Particle Filter
HMM的两个假设:
①齐次马尔可夫假设
当前的隐变量只与前一个隐变量有关
②观测独立假设
观察变量只与它的隐变量有关
三个问题:
1.evaluation
2.learning
3.decoding
evaluation:
已知(初始概率分布Π,转移矩阵A,发射矩阵B) => 入
求P(O|入)
前向算法:

