architecture

这里写图片描述
声学信号使用HMM框架建模,每个状态的生成概率使用DNN替换原来的GMM进行估计,DNN每个单元的输出表示状态的后验概率。

decoding

实际的语音识别解码的时候使用的是似然概率:
w ^ = a r g m a x w p ( w ∣ x ) = a r g m a x w p ( x ∣ w ) p ( w ) / p ( x ) = a r g m a x w p ( x ∣ w ) p ( w ) \hat{w}=argmax_{w}p(w|x)=argmax_{w}p(x|w)p(w)/p(x)=argmax_wp(x|w)p(w) w^=argmaxwp(wx)=argmaxwp(xw)p(w)/p(x)=argmaxwp(xw)p(w)
其中声学部分概率为 p ( x ∣ w ) p(x|w) p(xw),使用的是似然概率。
所以需要将DNN输出的后验概率转化为似然概率:
p ( x t ∣ q t = s ) = p ( q t = s ∣ x t ) ∗ p ( x t ) / p ( s ) p(x_t|q_t=s)=p(q_t=s|x_t)*p(x_t)/p(s) p(xtqt=s)=p(qt=sxt)p(xt)/p(s)
p ( x t ) p(x_t) p(xt)表示观察值的概率,跟词序列无关可以忽略。
p ( s ) p(s) p(s)表示状态的先验概率,可以使用训练语料的频率统计近似。实际使用时的先验概率有时无关紧要,但是可以缓解训练语料的标注偏移问题(比如训练语料包含大量的silience,从而导致silience的后验概率偏大)。
最终的声学概率表示如下:
p ( x ∣ w ) = ∑ q p ( x ∣ q , w ) p ( q ∣ w ) ≈ m a x π ( q 0 ) ∏ t = 1 T a q t − 1 q t ∏ t = 0 T p ( q t ∣ x t ) / p ( q t ) p(x|w)=\sum_{q}p(x|q,w)p(q|w)\approx max\pi(q_0)\prod_{t=1}^Ta_{q_{t-1}q_{t}}\prod_{t=0}^Tp(q_t|x_t)/p(q_t) p(xw)=qp(xq,w)p(qw)maxπ(q0)t=1Taqt1qtt=0Tp(qtxt)/p(qt)

training

流程如下:

  • 训练CD-GMM-HMM
  • 使用CD-GMM-HMM对训练语料进行维特比解码,强制对齐特征和状态
  • dnn训练

dnn训练使用的准则是基于后验概率,而hmm训练的准则是基于似然概率。

tricks

1.隐层个数
隐层越多(具有更强的函数拟合能力),效果越好,超过9层基本饱和。
2.contextual window
一般使用左右相邻的特征拼接起来作为dnn的输入,一般9-13帧。
在HMM中,有观察独立性假设(任意时刻的观测至于该时刻的状态有关,与其他观测和状态无关):
l o g p ( o t n , . . . , o t n + 1 − 1 ∣ s n ) ≈ ∑ t = t n t n + 1 − 1 [ l o g ( p ( o t ∣ s n ) ] logp(o_{t_n},...,o_{t_{n+1}-1}|s_n)\approx \sum_{t=t_n}^{t_{n+1}-1}[log(p(o_t|s_n)] logp(otn,...,otn+11sn)t=tntn+11[log(p(otsn)]
实际上相邻帧是存在一定关系的,并不是完全独立的:
l o g p ( o t n , . . . , o t n + 1 − 1 ∣ s n ) = ∑ t = t n t n + 1 − 1 [ l o g ( p ( o t ∣ s n , o t n , . . . , o t − 1 ) ] logp(o_{t_n},...,o_{t_{n+1}-1}|s_n)=\sum_{t=t_n}^{t_{n+1}-1}[log(p(o_t|s_n,o_{t_n},...,o_{t-1})] logp(otn,...,otn+11sn)=t=tntn+11[log(p(otsn,otn,...,ot1)]
DNN的拼帧方法在一定程度上减弱了HMM的独立性假设,更符合实际关系。
3.对senones建模
使用cd-phone的状态比使用monophone的state建模效果更好。
4.pretraining
层数小于5的时候pretraining比较重要;当层数增加以后,pretraining收益变小,但是pretraining可以保证训练的鲁棒性,避免比较糟糕的参数初始化。
5.better alignment
更好的模型可以获得更准确的alignment,除了使用GMM-HMM的模型进行对齐,还可以使用DNN-HMM模型对训练数据进行对齐。

参考文献

《automatic speech recognition a deep learning approach》 chapter 6

后面的技术分享转移到微信公众号上面更新了,【欢迎扫码关注交流】

在这里插入图片描述

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐