APP下载

低资源语音识别若干关键技术研究进展*

2017-04-27张卫强

数据采集与处理 2017年2期
关键词:声学高斯发音

刘 加 张卫强

(清华大学电子工程系,北京,100084)

低资源语音识别若干关键技术研究进展*

刘 加 张卫强

(清华大学电子工程系,北京,100084)

低资源语音识别是当今语音界研究的热点问题之一,也是多语言小语种语音识别技术在实际应用中所面临的重要挑战之一。本文回顾并总结了低资源语音识别的发展历史和研究现状,重点介绍了低资源语音识别在声学特征、声学模型和语言模型方面的若干关键技术研究进展。具体内容包括发音特征、多语言瓶颈特征、子空间高斯混合模型、卷积神经网络声学模型和递归神经网络语言模型,然后介绍了针对低资源语音识别的公开关键词搜索(Open keyword search,OpenKWS)评测,最后对低资源语音识别进行了总结和展望。

语音识别;低资源;声学模型;语言模型

引 言

语音是人类最主要通信手段之一,语音信号一直以来是信息获取的主要来源之一[1,2]。无论是民用还是军事,一直以来都受到世界各国的高度重视。近年来,随着互联网技术迅猛发展,各种音频信息量爆炸性地迅速增长,基于网络的多语言语音识别技术应用需求越来越迫切。近几年来主要大语种(汉语和英语)的语音处理技术(如语音识别技术、语种识别技术、说话人识别技术、关键词检测技术和语音合成技术等)已经在互联网、手机、呼叫中心及信息安全领域中开始得到应用。一方面,现有语音识别系统的准确率和稳健性还不够好,有待于进一步提高,尤其是针对信道质量较差的电话语音和噪声语音,识别性能会急剧降低,不能满足应用需求,这需要从建模方法和理论上进一步深化研究;另一方面,随着网络中多语言应用越来越普及,中国现有的以汉语与英语为主的语音识别系统已经无法应对众多方言、少数民族语音及其他小语种语音。同时现有的识别系统对处理多语言语音混用情况下的识别和口语化语音的识别也存在技术上的困难,未得到很好的解决。众所周知,目前的语音识别系统是建立在大量训练数据基础之上的,一旦训练数据缺失,将出现“巧妇难为无米之炊”的情形,原本成熟的方法很难发挥出应有的水平,甚至根本无法工作。低资源语音识别正是针对这种情况进行研究突破的,国际上一般称为“Low resource speech recognition”。低资源语音识别是用于训练的数据资源匮乏甚至缺失,这些数据资源包括语音、标注、发音字典和文本,某一方面或几方面的资源匮乏都属于低资源语音识别。

图1 Ei数据库搜索关于Low resource和Speech recognition论文按年份统计结果(截至日期:2016年12月31日)Fig.1 Distribution of papers on low resource and speech recognition according to year in Ei database (Statistics by Dec. 31, 2016)

目前,国际上低资源语音识别研究非常活跃[3-35]。作者在Ei数据库[36]对低资源语音识别进行了文献检索,按年份统计的结果如图1所示。从论文发表数量来看,在总体上呈逐年增加的趋势,这在一定程度上反映了低资源语音识别的研究逐年升温。

2009年,由来自美国、德国和捷克等国家和地区的语音语言学专家所组成的研究小组在美国约翰霍普金斯大学举行了主题为“低资源数据条件下新语种的低成本、高质量语音识别”的专项研讨会[37],专门针对那些使用人口少、训练数据获取困难及语言、语音专家稀缺的语言种类的语音识别技术展开研究,这为低资源语音识别奠定了基础。2011年初,美国情报高等计划研究署(IARPA)开始实行Bable计划[38,39],该计划最终由美国和欧洲多个研究机构承担,主要研究语音识别中低数据资源的语音识别系统快速构建。Bable计划的目标是:在当前常用语言识别系统的基础之上,仅需要一周的时间,即可以完成对任何其他语言的语音识别系统的构建,大量减少系统构建的资源开销,极大加快系统构建周期。参加该计划的团队来自世界上语音方面最领先的单位,如:MIT,Cambridge,CMU,JHU,IBM,SRI和BBN等。2015年本团队参加了Babel计划中的公开关键词搜索(Open keyword search,OpenKWS)评测,并取得公开测试条件第一名的好成绩。

本文介绍了低资源语音识别方面的若干典型工作和关键技术研究进展,包括发音特征、多语言瓶颈特征、子空间高斯混合模型、卷积神经网络声学模型和神经网络语言模型,这些工作是作者近年来在一线从事科研工作的总结;之后介绍了OpenKWS评测,这是针对低资源语音识别的目前最具影响力的一个国际学术评测。

1 典型语音识别系统架构[40-43]

(1)

(2)

从式(2)可以看出,大词汇量连续语音识别包含了5层映射关系,其中p(L|W)由发音字典决定,p(C|L)通常将单音素映射成上下文相关的三音素,p(S|C)由声学模型的状态聚类来决定,这3个概率都并不与数据直接相关。因此声学模型归根到底建模的是观测矢量O到HMM的状态S的似然度p(O|S)。

根据语音识别的基本原理,可以进一步给出语音识别系统的基本组成框图,如图2所示。在语音识别系统中,声学模型由大量带标注的语音训练得到,语言模型由大量文本训练得到。解码器综合了发音字典、声学模型和语言模型等知识源,对测试语音的特征进行识别,得到最终的文本识别结果。

图2 语音识别系统基本组成Fig.2 Basic flowchart of speech recognition system

2 低资源语音识别中的声学特征

2.1 语言无关的发音特征[41]

发音特征,在一般文献报道中翻译为“Articulatory feature”,指人类在产生声音时唇和舌的位置、形态等信息,比如平常说的摩擦音、鼻音等。国际语音协会将人类语言按照发音特征进行分类,每一类发音均可以表示成一系列发音特征的组合,这每一类发音就称为音素。每一个音素都是一组特定发音特征的组合,同样每一种发音特征又同时存在于很多音素的发音过程中。以表1的英语为例,左边两列是经常可以看到的根据发音特征的音素分类;反之,也可以得到像右边两列所示的音素和发音特征相对应的表。从表1中可见,发音特征与音素有着千丝万缕的联系,可以说是“你中有我,我中有你”。

表1 音素与发音特征对应关系示例

Tab.1 Relation between phonemes and articulatory features

发音特征音素音素发音特征FricativejhchsshzfthvdhfFricativelabialNasalmnngthFricativedentalLabialbfmpvwaaVowellowback︙︙︙︙

图3 音素与发音特征平均共享因子对比图Fig.3 Comparison between average sharing factor of phonemes and articulatory features

考虑到音素建模在语音识别中的重要地位以及音素与发音特征之间的联系,很多学者尝试从发音特征层面寻找各种建模的方式,希望可以找到另一条通用语音识别声学建模大门。许多研究者都对发音特征进行了详细深入的研究[45,46],同时一些基于发音特征的语音识别系统也取得了不错的效果[47,48];但由于发音特征相比音素,分类标准不确定度大,分类边界不够清晰以及离散化的表示不利于认知等缺点,基于它的研究还只处于初期阶段,基于发音特征建立起来的语音识别系统相比传统系统来说性能稍差。发音特征相比音素是更加具有普遍意义的分类集合。不仅同一语言中的不同音素通过一系列发音特征进行划分;不同语言的各种音素也是通过这些发音特征进行划分,因为无论是说哪一种语言,人类在产生声音时用于描述唇、舌的位置与形态的状态量就只是固定的若干种而已。发音特征相比与音素,是在各语言中差异性更加小的声学单元。可以从平均共享因子的分布特性来进一步说明发音特征的语言通用性[49]。平均共享因子是指多种语言混合时共享声学单元的平均语言数量,比如b在汉、英和日中都出现,那么b的共享因子就是3。根据共享单元的区别,可以分为音素平均共享因子和发音特征平均共享因子两类。图3所示为一个平均共享因子随混合语言数变化曲线的示意图,利用基于IPA国际音标体系表示下的汉、英、日、西和德5种语言来进行两类平均共享因子的统计。从图3可以看到,发音特征平均共享因子随着混合语言数量呈线性增长,而音素平均共享因子很快趋于饱和,这说明发音特征在不同语言中的表现都是一致的,各种不同语言的发音特征基本一样;但是不同语言的音素单元表示千差万别,不同语言所用音素集合有很大的不同,所以发音特征相比音素,是在各语言间差异性更小的共性单元。

基于以上对发音特征单元的分析,从发音特征层面入手来发挥它在多语言通用性上的优势,从而解决低数据资源条件下的语音识别问题[50-52]:(1) 发音特征的语言无关性使得它在不同语言间的差异很小,和新加入语言的差异很小;(2) 发音特征的高共享因子说明它可以充分利用不同语言训练数据来进行共享训练,不会出现模型训练不充分、数据稀疏等问题;(3) 基于发音特征的建模方法相比传统方法是一个全新的尝试,从一个新层次来进行语音建模,与传统基于音素建模的方法有一定的互补优势。

2.2 多语言数据共享的瓶颈特征[43]

当前深度神经网络(Deep neural network,DNN)在语音识别中的应用主要有两种:第一种是混合(hybrid)方法,即利用DNN直接估计HMM模型的物理状态后验概率,本文之前的研究都属于该方法的范畴;而第二种是级联(tandem)方法,即利用DNN进行特征提取,再利用高斯混合模型-隐马尔科夫模型(Gaussian mixture model-hidden Markov model, GMM-HMM)声学模型或深度神经网络-隐马尔科夫模型(Deep neural network-hidden Markov model,DNN-HMM)声学模型对提取出的特征进行建模。由于hybrid方法结构简洁、性能可靠,故该方法是目前基于DNN的声学建模中较为主流的方法。而tandem方法在某些特定的应用场合却有hybrid方法无法比拟的优点,例如:(1)该方法能够利用GMM-HMM模型的一些优势,如GMM-HMM模型能够很方便地使用计算机集群进行并行训练,当使用相对少量数据训练DNN来进行特征提取,而使用大量数据训练GMM-HMM模型时,可以加速模型训练过程,增强模型在大数据条件下的性能[53]。(2)在hybrid方法中,由于DNN直接起到声学建模的作用,因此方法要求DNN的训练数据和测试数据相匹配。在tandem方法中,用来训练后端声学模型的训练数据仍然需要和测试数据匹配,但是由于DNN仅作为前端特征提取器,此时DNN的训练数据和测试数据的匹配性要求并不很高,且DNN特征提取器的训练数据未必和后端声学模型的训练数据相同。这一性质为跨语言声学建模任务提供了一条可行的思路。

在tandem建模方法中,利用神经网络进行特征提取的方法又可进一步分为两种:第一种是利用神经网络的输出层提取特征。由于神经网络的输出具有概率意义,该特征也被称为“概率特征”(probabilistic feature)[54]。第二种是利用神经网络的隐含层提取特征。由于用来进行特征输出的隐含层节点数一般较少,构成了一个神经网络的瓶颈结构,因此该特征被称为“瓶颈特征”(bottleneck feature)[55]。在DNN出现之前,概率特征较为常见。而DNN出现之后,大多数tandem方法使用bottleneck特征,其原因是bottleneck特征的维数可以灵活配置,且此时DNN的输出层可以使用大量的节点以提高性能。而概率特征输出维数固定,一般还需要经过特征变换(如主成分分析)降维后才可进行声学建模。

Bottleneck特征提取器示意图如图4所示。用于提取bottleneck特征的DNN同hybrid方法中的DNN具有非常类似的结构,其输出层同样对应HMM的物理状态。因此,bottleneck特征中包含了丰富的语音音素信息,正是该信息能够带来后续声学模型性能的提升。在提取bottleneck特征所用的DNN中,某个隐含层的节点数较少,该节点的神经元激活函数输出即为bottleneck特征。当提取bottleneck所用的DNN模型训练完成后,其bottleneck层之后的隐含层和输出层参数并不再被使用,因此最终的bottleneck特征提取器仅包括DNN从输入层到bottleneck层之间的网络参数,如图4中的虚线部分所示。

Bottleneck特征既可用于训练的GMM-HMM模型,也可用于训练DNN-HMM模型。当利用bottleneck特征训练DNN-HMM模型时,由于DNN-HMM的输入为若干帧相邻的特征,因此从基本特征输入到声学模型输出的整个网络结构等价于一个时域上的卷积神经网络,该结构如图4所示。与时域上的卷积神经网络不同的是,此网络在训练过程中bottleneck特征提取部分的参数并不再变化,仅bottleneck特征之上的部分利用有标注数据进行训练。

在bottleneck层神经元类型的选择上,通常并不使用sigmoid函数,而是使用线性函数。将bottleneck层记为第l层,当该层使用线性激活函数,而其他层使用sigmoid非线性函数时,有

(3)

为了能够在低资源、多语言的现实环境中更好地利用多个非目标语言的数据,以辅助目标语言的声学建模,采用基于多语言bottleneck特征的数据共享策略。该方法基于混合音素集多语言DNN建模方法,其原理示意图如图5所示。

图4 Bottleneck特征提取器示意图Fig.4 Illustration of bottleneck feature extractor

图5 基于多语言bottleneck特征的数据共享示意图Fig.5 Illustration of data sharing based on multilingual bottleneck feature

在提取多语言bottleneck特征所用的DNN模型中,输出层为多语言HMM模型的物理状态。其bottleneck层具有较少的节点数,并使用线性神经元,以保留尽可能全面的多语言信息。使用多个非目标语言的数据训练得到多语言bottleneck特征提取器后,利用该特征提取器对目标语言的训练数据和测试数据提取bottleneck特征,并利用目标语言训练数据的bottleneck特征来进行声学模型的训练。

Tandem方法与hybrid方法相比,一个优势就是tandem方法中用来提取特征的DNN模型所用的训练数据并不要求和最终的测试数据非常匹配。因此,在低资源、多语言环境中,基于多语言bottleneck特征的数据共享策略有望获得比hybrid方法更好的识别效果。

3 低资源语音识别中的声学模型

3.1 子空间高斯混合模型[41]

GMM-HMM一直是语音识别领域的经典模型,其数学描述简单清晰,参数估计方法完备高效[58]。但是传统的基于GMM-HMM的声学建模方法有其自身的局限性,很多情况下都很难仅通过此传统模型架构来达到比较理想的语音识别性能。特别在低语音数据量条件下,这些问题便表现地更加突出,导致系统性能不够理想。这促使广大研究者希望寻找到更加精细的模型结构,从而得到更加强大的模型建模能力,在一定程度上克服传统GMM-HMM模型的一些弊端。这其中,子空间高斯混合模型-隐马尔科夫模型(Subspace Gaussian mixture model-hidden Markov model, SGMM-HMM)便是一种很好的声学建模方法[59]。基于子空间思想的SGMM-HMM建模方法的每一个隐含马尔可夫模型的状态并不是一个简单的高斯混合模型,而是将音素因子以及说话人因子等引入其中,通过这些因子派生得到一整个子空间模型的参数空间。在传统方法中隐含马尔可夫模型的每一个状态可以用一个独立的高斯混合模型来表示,如状态j的高斯混合模型可以表示为

(4)

式中:i表示高斯分量索引号,Mj表示高斯分量数,N则表示一个标准的多维高斯正态分布函数。GMM-HMM模型结构下每一个状态都是独立的,每个状态的模型参数都是独立估计。

SGMM-HMM模型依旧是基于HMM隐含马尔可夫模型,它的每一个状态仍然用一个高斯混合模型来表示,但是它的模型参数的估值方法与传统的方法有所不同,这里给出子空间模型每个状态j高斯混合模型的表达式[60]为

(5)

(6)

(7)

式中:j={1,…,J};i={1,…,I},表示HMM模型共有J个状态,每一状态各由I个高斯分量表示,比较典型的I值为200≤I≤2 000。其中j和i分别表示状态索引号和高斯分量索引号;x∈RD,表示一个D维的观测向量,也即是一般所指的特征向量;μji∈RD,表示第j个HMM状态的第i个高斯分量的D维均值向量,非直接模型参数,需要计算得到;ωji∈R,表示第j个HMM状态的第i个高斯分量的权重,非直接模型参数,需要计算得到;Σi∈RD×D,表示第i个高斯分量的D×D维的全协方差矩阵,其中所有状态的第i个高斯分量的全协方差矩阵都共享,是一个状态间共享模型参数;vj∈RS,表示状态j的S维状态相关向量,其中每一个HMM状态都拥有各自的状态相关向量,相互之间不共享;Mi∈RD×S,表示第i个高斯分量的D×S维均值投影矩阵,它是用来将第j个状态的状态相关向量vj进行投影,得到第j个状态的第i个高斯分量的均值向量μji。其中,所有HMM状态的第i个高斯分量都共享一个均值投影矩阵,是一个状态间共享模型参数;wi∈RS,表示第i个高斯分量的S维权重投影向量,它是用来将第j个状态的状态相关向量vj进行投影,得到第j个状态的第i个高斯分量的权重值。其中,所有HMM状态的第i个高斯分量都共享一个权重投影向量,是一个状态间共享模型参数;除此之外,还有一个通用背景模型(Universal background model,UBM)并没有在以上公式中列出(后面会再解释),它主要用于子空间模型初始化,声学分数计算时的高斯选择等用途。

子空间高斯混合模型依然沿用HMM声学模型架构,用状态输出概率来描述语音特征向量在每个状态的似然度。但它的每一个隐含马尔可夫模型状态除表示状态概率分布外,还将音素因子(或说话人因子等)引入其中,分别建模,与传统GMM模型截然不同,主要有如下几点:

(1)子空间高斯混合模型的第j个状态的每个高斯分量的均值μji和权重ωji已经不像传统GMM模型一样,还是直接的模型参数,它们都由与第j个状态相关的向量vj经过投影矩阵或者投影向量变换得到。

(2)传统GMM模型各个状态的高斯分量相对独立,高斯分量数可以不同,并且高斯数量一般较少(几十个);子空间高斯混合模型各状态的高斯分量相互联系,共享同一个高斯协方差矩阵,并且高斯分量数目相同,并且高斯数量一般很大(几百至上千个)。

(3)传统HMM模型各状态的状态信息被包含于所有高斯混合模型参数中,但是子空间模型的每个状态的个性信息仅用状态相关向量vj便可表示。它包含了各状态各自的特殊信息,仅用一个向量便可以将所有状态区分开。

(4)除了所熟知的GMM模型参数外,子空间模型还需要一个全局的UBM,用于模型初始化,分数计算高斯选择等。所有状态都共用一个通用背景模型,它也是状态共享的。

(5)传统HMM模型的整个参数空间都是各状态独立的,而子空间模型的整个参数空间由于它独特的表示方式,划分成了状态共享参数空间和状态相关非共享参数空间。如图6所示,左边虚线框中用到的UBM,均值投影矩阵和权重投影向量都属于共享参数空间;而右边虚线框中的状态相关向量vj属于非共享参数空间。

图6 子空间高斯混合模型参数空间示意图Fig.6 Illustration of parameter space of subspace Gaussian mixture model

(6)通常状态相关向量vj的维数S与语音特征向量的维数D比较相近(S≈D)。以一个I=16,D=39和S=40的模型为例,子空间模型与每一个状态相关的参数量只是S=40维,而传统的每一个对角方差GMM模型的状态相关参数量则为I×(2D+1)=1 264维,子空间模型各状态的参数量要远小于传统模型各状态的参数量。所以可以认为子空间的状态参数只位于传统的GMM模型参数空间的一个子空间中,这也正是子空间高斯混合模型名称的由来。

3.2 卷积神经网络声学模型[43]

卷积神经网络(Convolutional neural network,CNN)是低资源语音识别中另一种有效的声学建模方法,它可以利用靠近输入层的局部连接网络权重来建模数据的局部特性。典型的CNN模型结构如图7所示,图中的CNN模型使用fbank特征[61]作为输入,fbank特征的不同局部频谱分量在CNN的卷积层被分别处理和建模。

图7 卷积神经网络应用于语音信号fbank特征的示意图Fig.7 Illustration of CNN applied to fbank features of speech signals

在基于CNN的语音识别声学模型中,输入的特征矢量首先被划分为N个互不交叠的频带{vi|i=0,…,N-1}。譬如,当使用fbank特征时,CNN的输入包含n帧连续的特征矢量,可以将其记为

(8)

式中:xt,Δxt和ΔΔxt分别代表fbank基本特征、fbank一阶差分特征和fbank二阶差分特征。一般情况下,频带数N即fbank基本特征维数,且频带vi的构成为

(9)

(10)

式中:θ为CNN卷积层的非线性变换函数,如sigmoid函数。{Wr|r∈0,…,s-1}为CNN卷积层作用于频带组{vi+r|r∈0,…,s-1}的一组权重矩阵,将{Wr|r∈0,…,s-1}中的矩阵进行拼接,即构成卷积层权重矩阵W。式中的b为卷积层的偏置矢量。卷积层权重矩阵W与偏置矢量b并不随输入频带组编号i的变化而变化,从而实现参数共享。在CNN卷积层的操作过程中,权重矩阵W与偏置矢量b每次平移d个频带,从而生成一组卷积层频带输出{hj|j∈0,…,M-1}。本文将卷积层输入的频带个数s称为“卷积窗长”,将卷积层每次平移的频带个数d称为“卷积窗移”。通常情况下,卷积窗移满足d=1。

由于实际情况下CNN中使用互相交叠的卷积窗,即s>d,因此卷积层的输出可能包含冗余信息。在CNN中,最大集中层经常伴随卷积层出现,以达到隐含层节点降维的目的。最大集中操作的数学形式为

(11)

在语音识别声学建模任务中,基于CNN的模型虽然可以建模语音信号中的局部特性,但是其优化过程中的梯度消失问题和过拟合问题依然是影响模型性能的两个因素。使用maxout神经元和dropout训练方法来解决基于CNN的声学模型优化过程中的梯度消失问题和过拟合问题[63-66]。通过将maxout神经元和卷积结构结合,得到一种更适合低资源条件下语音识别声学建模任务的卷积maxout神经网络(Convolutional maxout neural network,CMNN)声学模型。

图8 CMNN模型卷积层的最大输出操作和最大集中操作对比Fig.8 Illustration of maxout and max-pooling applied to convolutional layers of CMNN

在CMNN模型中,CNN原有的卷积结构、最大集中结构和全连接结构都被保留,而所有非线性函数θ由sigmoid函数替换为maxout函数。CMNN中的卷积层仍然能够建模语音信号中的局部特性,maxout神经元的引入使得模型在低资源条件下的优化性能得以提高。图8中给出了CMNN模型的卷积层中maxout操作和最大集中操作的对比关系。在CMNN模型的卷积层中,maxout操作对同一个频带内部相邻位置的神经元节点输出选取最大值。最大集中操作作用于maxout操作之后,其输出为不同频带中同一个相对位置处神经元节点的最大值。

相比于前馈全连接的DNN基线模型,CMNN模型具有以下优势:(1)卷积层建模语音信号的帧内先验信息;(2)maxout神经元解决随机梯度下降(Stochastic gradient descent,SGD)训练过程中的梯度消失问题,使得模型容易优化;(3)dropout训练方法适合与maxout神经元一同使用,防止模型在低资源条件下出现过拟合,增强模型的推广性。

4 低资源语音识别中的神经网络语言模型[42]

在语音识别领域,应用最广泛的语言模型是基于词频统计的N元文法模型。理论上模型阶数N越高,对下一个词的统计学约束越强,模型的辨识能力也越强,但是N元组合在文本库中的出现频次将越低,其概率估计也越不准确。因此在实际系统中,模型的阶数通常不超过5阶。

尽管N元文法模型性能尚可,具有查询高效等特点,并得到广泛应用,但是仍然存在一些问题,最重要的问题是语言模型的稀疏性问题[67,68],也称“零概率”估值问题。由于自然语言本身具有稀疏性,即满足齐夫定律[69]。自然语言中20%的单词占据了80%的文本数据库,即少数的高频词占据了绝大多数文本数据;相反大量的低频词在文本库中出现次数非常少,甚至没有出现。这种单词分布的不均匀性导致大量的词语组合在训练数据中并没有出现。

采用神经网络对语言模型在连续空间建模可以有效克服传统的词频统计建模方法的不足。神经网络语言模型[70,71]首先定义投影矩阵将离散的词语符号映射到连续空间,形成相应的词矢量特征,某种程度上可以自动形成词义的等价性聚类。实验表明:词法或者语义等相似的词语矢量特征在连续空间表现出比较好的聚集性。将分布式的上文矢量信息输入典型的人工神经网络,并在输出层预测下一个词的概率。

对于神经网络语言模型建模方法,等价类构造函数定义为连续空间的分布式词矢量映射,其在高维空间表现出比较好的聚集性,而相应的预测函数为人工神经网络结构,输出层对应每个词的预测概率。投影矩阵参数和神经网络参数均是基于数据驱动的方法主动从训练数据中学习得到。从等价类构造和预测函数的角度,连续空间建模是离散空间建模的进一步的扩展,同时从人类认知学习的过程,连续空间建模更加符合知识获取过程。和离散空间建模相比,基于神经网络语言模型的连续空间建模在模型性能上取得更好的建模效果。相比于传统的词频建模方法,神经网络语言模型提供了非常好的等价类构造函数与平滑预测函数。

连续空间建模的方法充分挖掘了词矢量特征在“词法、语义”层面的聚集性和神经网络良好的学习能力,对于“零频率”或者“低频率”词语组合的概率估计表现出比较好的平滑效果和泛化能力。事实上对于“零频率”或者“低频率”的词语组合,其在连续空间的近邻并不一定也是“零频率”或者“低频率”,因此通过连续平滑的神经网络函数,其输出概率能够通过词矢量的聚集性得到相对准确的估计。近些年在国内外学者的广泛关注下,神经网络语言模型在自然语言处理以及语音识别领域取得突破性的进展[72-77]。在此基础之上,文献[78~82]研究了在低资源条件下如何有效应对更加严峻的稀疏性问题。

典型的神经网络语言模型包括前馈神经网络语言模型(Feed-forward neural network language model,FNNLM)与递归神经网络语言模型(Recurrent neural network language model,RNNLM),其结构如图9所示。

图9 典型的神经网络语言模型Fig.9 Typical neural network language models

前馈神经网络语言模型基于有限历史假设,其输入为上文最近的N-1个词;递归神经网络语言模型输入为整个历史上文,突破了有限历史假设,适合长序列建模,其输入为上一个词和上一时刻的隐含层状态。神经网络语言模型的输出层对应字典中每个词的预测概率。

(12)

其中激励函数g(·)通常取sigmoid(·)或者tanh(·)函数,即

(13)

神经网络语言模型的输出层为“对数线性分类器”,又称“最大熵分类器”,通过Softmax函数将输出归一化为概率。定义Who=[θ1,θ2,…,θ|V|]T∈R|V|×H,其中θi∈RH对应于每个输出层节点。定义句子中第t个词在字典中的索引q(wt)=i,则当前词的概率计算为

(14)

给定训练语料文本T,神经网络语言模型的训练依据交叉熵准则,其交叉熵代价函数为

(15)

式中:Θ为待估参数集合,对于前馈网络语言模型,Θ={E∈R|V|×D,Wih∈RH×(N-1)D,Who∈R|V|×H},而对于递归神经网络语言模型,Θ={E∈R|V|×D,Whh∈RH×H,Who∈R|V|×H}。另外需注意,减小交叉熵代价等效于最大化训练样本的似然度,即最大似然估计。

目标代价函数优化过程通常采用经典的随机梯度下降法进行参数优化。目标函数的梯度为

(16)

式中:I(j=q(wt))为指示函数,如果等式成立返回1,否则返回0。隐含层状态ht是投影矩阵以及输入矩阵等其他参数的函数,通过复合函数的链式求导法则,可以求得相应参数的梯度参数即▽Θ,采用随机梯度法更新参数如下

(17)

式中:η为学习步长,k代表迭代次数,每次迭代后在开发集上校验模型的性能。如果开发集上性能不再提高或者变差,将终止迭代。通常情况下经过有限次的迭代训练后,训练过程收敛而终止。

5 NIST OpenKWS关键词评测

自2013年起,美国国家标准与技术研究所(National institute of standards and technology,NIST)开始每年举办一次国际关键词检索(OpenKWS)评测。该评测是美国政府大力支持的IARPA Babel项目[38]的一部分,受到该项目资助的研究机构必须参加该评测,且评测成绩决定了下一年研究机构所能获得的资助情况。除了受到IARPA Babel项目资助的参赛队伍外,OpenKWS评测也允许其他参赛队伍参加。NIST OpenKWS评测的目标是在有限的时间内,利用有限的训练资源建立一套语音识别系统,并进行关键词检索任务。在每次评测中,都会发布一个“意外”语言(Surprise language),其语种信息事先未知。2013年的OpenKWS13评测语言是越南语,2014年的OpenKWS14评测语言是泰米尔语,2015年的OpenKWS15评测语言为斯瓦希里语,2016年的OpenKWS16评测语言为格鲁吉亚语。

NIST OpenKWS评测官方指标为最大查询词加权值(Maximum term-weighted value,MTWV)和实际查询词加权值(Actual term-weighted value,ATWV)[83]。由于关键词检索系统的任务是在语音库里找出特定的关键词,包括其出现的起始时间和结束时间。关键词系统可能出现的错误类型有两种:虚警错误(False alarm,FA)和漏报错误。虚警错误是指在没有关键词的位置检出了关键词,而漏报错误是指在有关键词的位置没有检测出关键词。在NIST OpenKWS评测中,要求关键词检索系统给每一个可能的关键词赋予一个置信度分数,并使用统一的门限θ来判定每个可能的关键词是否为真实的关键词。因此,关键词检索系统的虚警率和漏报率跟系统使用的门限θ有关。综合这两种错误类型,衡量关键词检索系统性能的指标ATWV定义为

(18)

式中:#ref(w)为答案中出现的关键词w的个数;#miss(w,θ)和#fa(w,θ)分别为在门限θ下关键词w的漏报次数和虚警次数;T代表测试语音库的大小,以s为单位,用来作为测试语音中所出现的词个数的估计;K为不同关键词的个数;β为一常量,用来对系统的虚警率进行惩罚,在NIST OpenKWS评测中,β的值设置为999.9。随着门限θ的变动,ATWV的值会有所不同。而在最优的门限值下,系统能够得到MTWV,这也是评价关键词检索系统性能好坏的一项指标,它代表了一个特定的关键词检索系统能够达到的最优性能。显然,ATWV和MTWV的值越大越好,在理想情况下ATWV和MTWV的值相等,且两者的最大值均为1。

图10给出了2015年NIST官方发布的本团队参加评测的DET(Detection error tradeoff)曲线,当时所构建的系统关键词检索AWTV达到0.539 1,该结果为NIST OpenKWS15评测极低资源测试任务公开条件第1名[84,85]。

图10 2015年NIST官方发布的本团队参加OpenKWS评测的DET曲线Fig.10 Official DET curves of our team for OpenKWS evaluation released by NIST

6 结束语

语音识别已经经历了起起落落60余年的发展,低资源语音识别也是伴随着语音识别逐步发展起来,令人欣喜的是它已经在一些领域实际应用并取得了不错的效果。近年来,随着深度学习等技术的兴起,低资源语音识别又有了较大的进展。除了本文介绍若干进展之外,另外几个方向也很可能产生新的技术突破:(1)多语言和跨语言声学建模新方法,设计多语言和跨语言的声学建模新方法,利用极少量数据便可对新的语言进行语音识别。(2)端到端的声学建模方法,通过建立语音特征和声学建模基本单元的关系,利用统计方法实现端到端的声学建模,有望使语音识别系统真正摆脱对发音字典的依赖。(3)声学模型和语言模型统一建模,利用统一的模型对声学信息和语言信息建模,更好地挖掘声学和语言之间的关联性与互补性,提高系统性能。

致谢 本文撰写过程中,作者参考了其指导的博士生单煜翔、钱彦旻、史永哲和蔡猛的博士论文的部分文字和图表,在此表示感谢。

[1] Juang B H, Furui S. Automatic recognition and understanding of spoken language—A first step toward natural human-machine communication [J]. Proceedings of the IEEE, 2000, 88(8): 1142-1165.

[2] Deng Li, Huang Xuedong. Challenges in adopting speech recognition [J]. Communications of the ACM, 2004, 47(1):69-75.

[3] Besacier L, Barnard E, Karpov A, et al. Automatic speech recognition for under-resourced languages: A survey [J]. Speech Communication, 2014, 56:85-100.

[4] Thomas S, Ganapathy S, Hermansky H. Multilingual MLP features for low-resource LVCSR systems [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Kyoto: IEEE, 2012:4269-4272.

[5] Vu N T, Imseng D, Povey D, et al. Multilingual deep neural network based acoustic modeling for rapid language adaptation [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Florence: IEEE, 2014: 7639-7643.

[6] Chen N F, Ni Chongjia, Chen I-Fan, et al. Low-resource keyword search strategies for Tamil [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). South Brisbane: IEEE, 2015:5366-5370.

[7] Chen N F, Xu H, Xiao X, et al. Li. Exemplar-inspired strategies for low-resource spoken keyword search in Swahili [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Shanghai: IEEE, 2016: 6040-6044.

[8] Laurent A, Fraga-Silva T, Lamel L, et al. Investigating techniques for low resource conversational speech recognition [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Shanghai: IEEE, 2016: 5975-5979.

[9] Syed A R, Rosenberg A, Kislal E. Supervised and unsupervised active learning for automatic speech recognition of low-resource languages [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Shanghai: IEEE, 2016: 5320-5324.

[10]Muller M, Stuker S, Waibel A. Language adaptive DNNs for improved low resource speech recognition [C]∥ Interspeech. San Francisco: ISCA, 2016: 3878-3882.

[11]Thomas S, Audhkhasi K, Cui J, et al. Multilingual data selection for low resource speech recognition [C]∥ Interspeech. San Francisco: ISCA, 2016: 3853-3857.

[12]Zhang Y, Chuangsuwanich E, Glass J, et al. Prediction-adaptation-correction recurrent neural networks for low-resource language speech recognition [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Shanghai: IEEE, 2016: 5415-5419.

[13]Xie C, Guo W, Hu G, et al. Web data selection based on word embedding for low-resource speech recognition[C]∥ Interspeech. San Francisco: ISCA, 2016: 1340-1344.

[14]Chen D, Mak B K W. Multitask learning of deep neural networks for low-resource speech recognition [J]. IEEE/ACM Transactions on Speech and Language Processing, 2015(23): 1172-1183.

[15]Mendels G, Cooper E, Soto V, et al. Improving speech recognition and keyword search for low resource languages using web data [C]∥ Interspeech. Dresden: ISCA, 2015: 829-833.

[16]Cui J, Kingsbury B, Ramabhadran B, et al. Multilingual representations for low resource speech recognition and keyword search [C]∥ IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU). Scottsdale: IEEE, 2015: 259-266.

[17]Xu H, Do V H, Xiao X, et al. A comparative study of BNF and DNN multilingual training on cross-lingual low-resource speech recognition [C]∥ Interspeech. Dresden: ISCA, 2015: 2132-2136.

[18]Rath S P, Knill K M, Ragni A, et al. Combining tandem and hybrid systems for improved speech recognition and keyword spotting on low resource languages [C]∥ Interspeech. Singapore: ISCA, 2014: 835-839.

[19]Lu L, Ghoshal A, Renals S. Cross-lingual subspace Gaussian mixture models for low-resource speech recognition [J]. IEEE/ACM Transactions on Audio Speech and Language Processing, 2014(22): 17-27.

[20]Chen D, Mak B, Leung C C, et al. Joint acoustic modeling of triphones and trigraphemes by multi-task learning deep neural networks for low-resource speech recognition [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Florence: IEEE, 2014: 5592-5596.

[21]Lu L, Ghoshal A, Renals S. Cross-lingual subspace Gaussian mixture models for low-resource speech recognition [J]. IEEE/ACM Transactions on Speech and Language Processing, 2014(22): 17-27.

[22]Zhang W, Fung P. Sparse inverse covariance matrices for low resource speech recognition [J]. IEEE Transactions on Audio Speech and Language Processing, 2013(21): 659-668.

[23]Miao Y, Metze F, Rawat S. Deep maxout networks for low-resource speech recognition [C]∥ IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU). Olomouc: IEEE, 2013: 398-403.

[24]Miao Y, Metze F, Waibel A. Subspace mixture model for low-resource speech recognition in cross-lingual settings [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Vancouver: IEEE, 2013: 7339-7343.

[25]Xu P, Fung P. Cross-lingual language modeling for low-resource speech recognition [J]. IEEE Transactions on Audio Speech and Language Processing, 2013(21): 1134-1144.

[26]Thomas S, Seltzer M. L, Church K, et al. Deep neural network features and semi-supervised training for low resource speech recognition [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Vancouver: IEEE, 2013: 6704-6708.

[27]Kanda N, Takeda R, Obuchi Y. Elastic spectral distortion for low resource speech recognition with deep neural networks [C]∥ IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU). Olomouc: IEEE, 2013: 309-314.

[28]Zhang W, Fung P. Low resource speech recognition with automatically learned sparse inverse covariance matrices [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Kyoto: IEEE. 2012: 4737-4740.

[29]Thomas S, Ganapathy S, Jansen A, et al. Data-driven posterior features for low resource speech recognition applications[C]∥ Interspeech. Portland: ISCA, 2012: 790-793.

[30]Zhang W, Fung P. Sparse banded precision matrices for low resource speech recognition [C]∥ Interspeech. Portland: ISCA, 2012: 1912-1915.

[31]秦楚雄, 张连海. 低资源语音识别中融合多流特征的卷积神经网络声学建模方法 [J]. 计算机应用, 2016, 36(9): 2609-2615.

Qin Chuxiong, Zhang Lianhai. Acoustic modeling approach of multi-stream feature incorporated convolutional neural network for low-resource speech recognition [J]. Journal of Computer Applications, 2016, 36(9): 2609-2615.

[32]张剑, 屈丹, 李真. 基于循环神经网络语言模型的N-best重打分算法 [J]. 数据采集与处理, 2016, 31(2): 347-354.

Zhang Jian, Qu Dan, Li Zhen. N-best rescoring algorithm based on recurrent neural network language model [J]. Journal of Data Acquisition and Processing, 2016, 31(2): 347-354.

[33]张鹏远, 计哲, 侯炜, 等. 一种小资源下语音识别算法设计与优化 [C]∥全国人机语音通讯学术会议. 天津: 中国中文信息学会, 2015.

Zhang Pengyuan, Ji Zhe, Hou Wei, et al. Design and optimization of speech recognition in low resource [C]∥National Conference on Man-Machine Speech Communication. Tianjin: CIPSC, 2015.

[34]伊·达瓦, 匂坂芳典, 中村哲. 语料资源缺乏的连续语音识别方法的研究 [J]. 自动化学报, 2010, 36(4): 550-557.

Dawa I, SAGISAKA Yoshinori1, NAKAMURA Satoshi. Investigation of ASR systems for resource-deficient languages [J]. ACTA Automatica Sinica, 2010, 36(4): 550-557.

[35]刘迪源, 郭武. 基于区分性准则的Bottleneck特征及其在LVCSR中的应用 [J]. 数据采集与处理, 2016, 31(2): 331-337.

Liu Diyuan, Guo Wu. Discriminative criterion based bottleneck feature and its application in LVCSR [J]. Journal of Data Acquisition and Processing, 2016, 31(2): 331-337.

[36]Elsevier. Engineering village [EB/OL]. http:∥www.engineeringvillage.com/, 2017-01-09.

[37]Burget L, Goel N, Povey D, et al. Low development cost, high quality speech recognition for new languages and domains [EB/OL]. http:∥www.clsp.jhu.edu/workshops/archive/ws09/groups/low-development-cost-high-quality-speech-recognition-for-new-languages-and-domains, 2017-01-09.

[38]Harper M. BABEL [EB/OL]. http:∥www.iarpa.gov/manager_harper.html, 2017-01-09.

[39]Sainath T, Kingsbury B, Metze F, et al. An overview of the base period of the Babel program [N]. SLTC Newsletter, 2013.

[40]单煜翔. 高效大词汇量连续语音识别解码算法研究与工程化实现 [D]. 北京: 清华大学, 2012.

Shan Yuxiang. Studies and engineering implementation of efficient large vocabulary continuous speech recognition decoding algorithms [D]. Beijing: Tsinghua University, 2012.

[41]钱彦旻. 低数据资源条件下的语音识别技术新方法研究 [D]. 北京: 清华大学, 2013.

Qian Yanmin. Study on new speech recognition technology under low data resource conditions [D]. Beijing: Tsinghua University, 2013.

[42]史永哲. 低资源条件神经网络语言模型高效建模与解码方法研究 [D]. 北京: 清华大学, 2014.

Shi Yongzhe. Efficient language modeling and decoding with NNLM for low-resource speech recognition [D]. Beijing: Tsinghua University, 2014.

[43]蔡猛. 低资源条件下基于深度神经网络的语音识别声学建模研究 [D]. 北京: 清华大学, 2016.

Cai Meng. Research on acoustic modeling based on deep neural networks for low resource speech recognition [D]. Beijing: Tsinghua University, 2016.

[44]Huang X, Acero A, Hon H W. Spoken language processing: A guide to theory, algorithm and system development [M]. Upper Saddle River, New Jersey: Prentice-Hall PTR, 2001.

[45]Siniscalchi S M, Li J, Lee C H. A study on lattice rescoring with knowledge scores for automatic speech recognition [C]∥ Interspeech. Pittsburgh: ISCA, 2006: 517-520.

[46]Siniscalchi S M, Svendsen T, Lee C H. Toward bottom-up continuous phone recognition [C]∥ IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU). Kyoto: IEEE, 2007: 566-569.

[47]Siniscalchi S M, Svendsen T, Lee C H. Toward a detector-based universal phone recognizer [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Las Vegas: IEEE, 2008: 4261-4264.

[48]Cetin O, Kantor A, King S, et al. An articulatory feature-based tandem approach and factored observation modeling [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Honolulu: IEEE, 2007: 645-648.

[49]Stuker S, Schultz T, Metze F, et al. Multilingual articulatory features [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Hong Kong: IEEE, 2003:144-147.

[50]Qian Yanmin, Xu Ji, Povey Daniel, et al. Strategies for using MLP based features with limited target-language training data [C]∥ IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU). Honolulu: IEEE, 2011: 354-358.

[51]Qian Yanmin, Liu Jia. Articulatory feature based multilingual MLPs for low-resource speech recognition [C]∥ Interspeech. Portland: ISCA, 2012: 2602-2605.

[52]Qian Yanmin, Liu Jia. Cross-lingual and ensemble MLPs strategies for low-resource speech recognition [C]∥ Interspeech. Portland: ISCA, 2012: 2582-2585.

[53]Yan Zhijie, Huo Qiang, Xu Jian. A scalable approach to using DNN-derived features in GMM-HMM based acoustic modeling for LVCSR [C]∥ Interspeech. Lyon: ISCA, 2013: 104-108.

[54]Hermansky H, Ellis D P W, Sharma S. Tandem connectionist feature extraction for conventional HMM systems [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Istanbul: IEEE, 2000:1635-1638.

[55]Grezl F, Karafiat M, Kontar S, et al. Probabilistic and bottle-neck features for LVCSR of meetings [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Honolulu: IEEE, 2007: 757-760.

[56]Sainath T N, Kingsbury B, Sindhwani V, et al. Low-rank matrix factorization for deep neural network training with high-dimensional output targets [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Vancouver: IEEE, 2013: 6655-6659.

[57]Xue Jian, Li Jinyu, Gong Yifan. Restructuring of deep neural network acoustic models with singular value decomposition[C]∥ Interspeech. Lyon: ISCA, 2013: 2365-2369.

[58]Rabiner L R. A tutorial on hidden Markov models and selected applications in speech recognition [J]. Proceedings of the IEEE, 1989, 77(2):257-286.

[59]Povey D, Burget L, Agarwal M, et al. Subspace Gaussian mixture models for speech recognition [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Dallas: IEEE, 2010: 4330-4333.

[60]Povey D, Burget L, Agarwal M, et al. The subspace Gaussian mixture model—A structured model for speech recognition. Computer Speech and Language [J]. 2011, 25(2): 404-439.

[61]Sainath T N, Mohamed A, Kingsbury B, et al. Deep convolutional neural networks for LVCSR [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Vancouver: IEEE, 2013: 8614-8618.

[62]Deng Li, Abdel-Hamid O, Yu Dong, et al. A deep convolutional neural network using heterogeneous pooling for trading acoustic invariance with phonetic confusion [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Vancouver: IEEE, 2013: 6669-6673.

[63]Cai Meng, Liu Jia. Maxout neurons for deep convolutional and LSTM neural networks in speech recognition [J]. Speech Communication, 2016(77): 53-64.

[64]Cai Meng, Shi Yongzhe, Kang Jian, et al. Convolutional maxout neural networks for low-resource speech recognition [C]∥ International Symposium on Chinese Spoken Language Processing (ISCSLP). Singapore: IEEE, 2014: 133-137.

[65]Cai Meng, Shi Yongzhe, Liu Jia. Stochastic pooling maxout networks for low-resource speech recognition [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Florence: IEEE, 2014: 3266-3270.

[66]Cai Meng, Shi Yongzhe, Liu Jia. Deep maxout neural networks for speech recognition [C]∥ IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU). Olomouc: IEEE, 2013: 291-296.

[67]Katz S M. Estimation of probabilities from sparse data for the language model component of a speech recognizer [J]. IEEE Transactions on Acoustics, Speech and Signal Processing, 1987(3): 400-411.

[68]Kneser R, Ney H. Improved backing-off for n-gram language modeling [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Detroit: IEEE, 1995: 181-184.

[69]Wikipedia. 齐夫定律(Zipf-law)[EB/OL]. http:∥en.wikipedia.org/wiki/Zipf's_law, 2017-01-09.

[70]Bengio Y, Ducharme R, Vincent P, et al. A neural probabilistic language model [J]. Journal of Machine Learning Research, 2003(3): 1137-1155.

[71]Tomas M, Martin K, Lukas B, et al. Recurrent neural network based language model [C]∥Interspeech. Makuhari: ISCA, 2010: 1045-1048.

[72]Stefan K, Tomas M, Martin K, et al. Recurrent neural network based language modeling in meeting recognition [C]∥ Interspeech. Florence: ISCA, 2011: 2877-2880.

[73]Tomas M, Anoop D, Stefan K, et al. Empirical evaluation and combination of advanced language modeling techniques [C]∥ Interspeech. Florence: ISCA, 2011: 605-608.

[74]So L H, Allauzen R, Wisniewski G, et al. Training continuous space language models: Some practical issues [C]∥ Conference on Empirical Methods in Natural Language Processing (EMNLP). MIT: ACL, 2010: 778-788.

[75]Schwenk H, Gauvain J L. Connectionist language modeling for large vocabulary continuous speech recognition [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Orlando: IEEE, 2002: 765-768.

[76]Schwenk H, Gauvain J L. Using neural network language models for LVCSR [C]∥ 2004 Rich Transcriptions Workshop. Pallisades: NIST, 2004.

[77]Schwenk H, Dchelotte D, Gauvain J L. Continuous space language models for statistical machine translation [C]∥ International Conference on Computional Linguistics (COLING). Sydney: ACL, 2006: 723-730.

[78]Shi Yongzhe, Zhang Weiqiang, Cai Meng, et al. Efficient one-pass decoding with NNLM for speech recognition [J]. IEEE Signal Processing Letters, 2014(21): 377-381.

[79]Shi Yongzhe, Zhang Weiqiang, Cai Meng, et al. Empirically combining unnormalized NNLM and back-off N-gram for fast N-best rescoring in speech recognition [J]. EURASIP Journal on Audio, Speech, and Music Processing, 2014,2014:19.

[80]Shi Yongzhe, Zhang Weiqiang, Liu Jia, et al. RNN language model with word clustering and class-based output layer [J]. EURASIP Journal on Audio, Speech, and Music Processing, 2013,2013:22.

[81]Shi Yongzhe, Zhang Weiqiang, Cai Meng, et al. Variance regularization of RNNLM for speech recognition [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Florence: IEEE, 2014: 4931-4935.

[82]Shi Yongzhe, Zhang Weiqiang, Cai Meng, et al. Temporal kernel neural network language modeling[C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Vancouver: IEEE, 2013: 8247-8251.

[83]NIST. KWS15 keyword search evaluation plan [EB/OL]. http:∥www.nist.gov/itl/iad/mig/upload/KWS15-evalplan-v05.pdf. 2017-01-09.

[84]Cai Meng, Lü Zhiqiang, Song Beili, et al. The THUEE system for the OpenKWS14 keyword search evaluation [C]∥ International Conference on Acoustics, Speech and Signal Processing (ICASSP). Brisbane: IEEE, 2015:4734-4738.

[85]Zhang Zhuo, Zhang Weiqiang, Shen Kaixiang, et al. THUEE language modeling method for the OpenKWS 2015 evaluation [C]∥ International Symposium on Signal Processing and Information Technology (ISSPIT). Abu Dhabi: IEEE, 2015: 507-511.

Research Progress on Key Technologies of Low Resource Speech Recognition

Liu Jia, Zhang Weiqiang

(Department of Electronic Engineering, Tsinghua University, Beijing, 100084, China)

Low resource speech recognition is one of currently researching hotspots in speech recognition community, and is also one of the important challenges for the application of multilingual and minority language speech recognition technologies. This paper summarizes and reviews the current states and history of low resource speech recognition, and introduces several key technologies, including articulatory feature, multilingual bottleneck feature, subspace Gaussian mixture model, convolutional neural network based acoustic model and recurrent neural network based language model. After that the open keyword search (OpenKWS) evaluation is introduced. Finally, the prospective of low resource speech recognition is presented.

speech recognition; low resource; acoustic model; language model

国家自然科学基金(61370034,61403224)资助项目。

2015-06-05;

2015-06-30

TP319

A

刘加(1954-),男,教授,博士生导师,语音与音频信号处理,E-mail:liuj@tsinghua.edu.cn。

张卫强(1979-),男,副研究员,语音与音频信号处理,E-mail:wqzhang@tsinghua.edu.cn。

猜你喜欢

声学高斯发音
爱的就是这股Hi-Fi味 Davis Acoustics(戴维斯声学)Balthus 70
数学王子高斯
天才数学家——高斯
Acoustical Treatment Primer:Diffusion谈谈声学处理中的“扩散”
Acoustical Treatment Primer:Absorption谈谈声学处理中的“吸声”(二)
Acoustical Treatment Primer:Absorption 谈谈声学处理中的“吸声”
Playing with h
从自卑到自信 瑞恩·高斯林
Playing with /eI/
Playing with u_e