这里贴一个网页:

https://www.cnblogs.com/wjgaas/p/4523779.html

简单的说:
Posterior probability ∝ Likelihood × Prior probability

从语音识别的角度来看这个问题,那么就是,解码的过程就是求取后验概率的过程。

ref_W = argmax_w(p(O|W) * P(W)/P(O))
已知观察序列O是一个参数,那么在此就可以忽略 P(O)。

  • P(O) 实际工程中,即为声学各个pdf_id的先验,有利于声学统计的不均衡问题。
  • P(W) 是指语言模型,这里也是先验概率,已经知道的概率。
  • P(O|W)是指似然函数,可以理解为概率密度函数,正如hmm中的B(gmm或者是dnn);
    指给定模型参数[A,B,π],有了观察序列,对应的各个单词或者状态的概率是多少。
  • ref_W 即为求取的序列,就是一个后验概率。

解码的过程就是一个计算后验的过程;
在NBest中,后验概率的归一化,即可以表征置信度。

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐