声纹识别模型训练方法和装置、声纹识别方法和装置制造方法及图纸

技术编号:31828499 阅读:28 留言:0更新日期:2022-01-12 13:01
本公开提供了一种声纹识别模型训练方法和装置,涉及语音技术、深度学习等技术领域。具体实现方案为:获取特征样本集;获取声纹识别网络,声纹识别网络包括:特征提取器、基础网络和互抗网络;特征提取器用于提取输入信息中的说话人特征和非说话人特征,基础网络用于对说话人特征进行预测;互抗网络用于区分说话人特征和非说话人特征;将选取的辨识矢量特征输入特征提取器,得到选取的辨识矢量特征对应的说话人特征和非说话人特征;将该说话人特征和该非说话人特征输入基础网络,以及将该说话人特征和该非说话人特征输入互抗网络,计算声纹识别网络的损失值;基于损失值和声纹识别网络,得到声纹识别模型。该实施方式提高了声纹识别准确性。准确性。准确性。

【技术实现步骤摘要】
声纹识别模型训练方法和装置、声纹识别方法和装置


[0001]本公开涉及计算机
,具体涉及语音技术、深度学习等
,尤其涉及一种声纹识别模型训练方法和装置、声纹识别方法和装置、电子设备、计算机可读介质以及计算机程序产品。

技术介绍

[0002]在实际的声纹系统应用中,会受到说话人自身与环境等多重音素的干扰,对声纹特征提取的准确率造成了一定的影响。如何消除这些影响,更准确的提取出说话人的特征,成了近几年声纹的热门研究领域。

技术实现思路

[0003]本公开提供了一种声纹识别模型训练方法和装置、声纹识别方法和装置、电子设备、计算机可读介质以及计算机程序产品。
[0004]根据第一方面,提供了一种声纹识别模型训练方法,该方法包括:获取包括至少一个辨识矢量特征的特征样本集;获取预先建立的声纹识别网络,声纹识别网络包括:特征提取器、基础网络和互抗网络;特征提取器用于提取输入信息中的说话人特征和非说话人特征,基础网络用于对说话人特征进行预测;互抗网络用于区分说话人特征和非说话人特征;执行以下训练步骤:将从特征样本集中选取的辨识矢量特征输入特征提取器,得到选取的辨识矢量特征对应的说话人特征和非说话人特征;将该说话人特征和该非说话人特征输入基础网络,以及将该说话人特征和该非说话人特征输入互抗网络,计算声纹识别网络的损失值;基于损失值和声纹识别网络,得到声纹识别模型。
[0005]根据第二方面,提供了一种声纹识别方法,该方法包括:获取待识别语音的辨识矢量特征;将待识别语音的辨识矢量特征输入采用如第一方面任一实现方式描述的方法生成的声纹识别模型中,输出待识别语音的声纹识别结果。
[0006]根据第三方面,提供了一种声纹识别模型训练装置,该装置包括:样本获取单元,被配置成获取包括至少一个辨识矢量特征的特征样本集;网络获取单元,被配置成获取预先建立的声纹识别网络,声纹识别网络包括:特征提取器、基础网络和互抗网络;特征提取器用于提取输入信息中的说话人特征和非说话人特征,基础网络用于对说话人特征进行预测;互抗网络用于区分说话人特征和非说话人特征;特征获取单元,被配置成将从特征样本集中选取的辨识矢量特征输入特征提取器,得到选取的辨识矢量特征对应的说话人特征和非说话人特征;计算单元,被配置成将该说话人特征和该非说话人特征输入基础网络,以及将该说话人特征和该非说话人特征输入互抗网络,计算声纹识别网络的损失值;输出单元,被配置成基于损失值和声纹识别网络,得到声纹识别模型。
[0007]根据第四方面,又提供了一种声纹识别装置,该装置包括:获取单元,被配置成获取待识别语音的辨识矢量特征;识别单元,被配置成将待识别语音的辨识矢量特征输入采用如第三方面任一实现方式描述的装置生成的声纹识别模型中,输出待识别语音的声纹识
别结果。
[0008]根据第五方面,提供了一种电子设备,该电子设备包括:至少一个处理器;以及与至少一个处理器通信连接的存储器,其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面或第二方面任一实现方式描述的方法。
[0009]根据第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面或第二方面任一实现方式描述的方法。
[0010]根据第七方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面或第二方面任一实现方式描述的方法。
[0011]本公开的实施例提供的声纹识别模型训练方法和装置,首先,获取包括至少一个辨识矢量特征的特征样本集;其次,获取预先建立的声纹识别网络,声纹识别网络包括:特征提取器、基础网络和互抗网络;再次,将从特征样本集中选取的辨识矢量特征输入特征提取器,得到选取的辨识矢量特征对应的说话人特征和非说话人特征;从次,将该说话人特征和该非说话人特征输入基础网络,以及将该说话人特征和该非说话人特征输入互抗网络,计算声纹识别网络的损失值;最后,基于损失值和声纹识别网络,得到声纹识别模型。由此,通过构建包括特征提取器、基础网络、互抗网络的声纹识别网络,可以通过特征提取器提取说话人特征和非说话人特征,可以通过基础网络对说话人特征进行预测,通过互抗网络区分说话人特征和非说话人特征,使说话人特征和非说话人特征分别单独表征,并在声纹识别网络训练中尽量差异化说话人特征和非说话人特征,直至两者达到平衡,达到说话人特征更加纯净的目的,进而提升了声纹识别模型声纹识别的准确性。
[0012]本公开的实施例提供的声纹识别方法和装置,获取待识别语音的辨识矢量特征;将待识别语音的辨识矢量特征输入采用本实施例的声纹识别模型训练方法生成的声纹识别模型,输出待识别语音的声纹识别结果。由此,采用特征提取器、基础网络和互抗网络生成的声纹识别模型,可以提升得到的待识别语音的声纹识别结果的准确性。
[0013]应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
[0014]附图用于更好地理解本方案,不构成对本公开的限定。其中:
[0015]图1是根据本公开声纹识别模型训练方法的一个实施例的流程图;
[0016]图2是本公开实施例中声纹识别网络进行训练的一种结构示意图;
[0017]图3是根据本公开声纹识别方法的一个实施例的流程图;
[0018]图4是根据本公开声纹识别模型训练装置的一个实施例的结构示意图;
[0019]图5是根据本公开声纹识别装置的一个实施例的结构示意图;
[0020]图6是用来实现本公开实施例的声纹识别模型训练方法或声纹识别方法的电子设备的框图。
具体实施方式
[0021]以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种
细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
[0022]传统的声纹识别建模一般分为三个模块:
[0023]声学特征提取模块:声学特征是一种低级特征,通过传统的数字信号处理技术对音频数据进行处理获得,一般采用MFCC(Mel

frequency cepstral coefficients,梅尔频率倒谱系数),PLP(Perceptual Linear Predictive,感知线性预测),Fbank(Filter Bank,滤波器组)等方法进行处理。
[0024]辨识矢量特征提取模块:辨识矢量特征是一种高级特征,提取辨识矢量特征的方法一般有基于无监督的的GMM(Gaussian Mix Models,混合高斯模型),例如对辨识矢量i

vector特征的采集;基于监督的深度学习的DNN本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种声纹识别模型训练方法,所述方法包括:获取包括至少一个辨识矢量特征的特征样本集;获取预先建立的声纹识别网络,所述声纹识别网络包括:特征提取器、基础网络和互抗网络;所述特征提取器用于提取输入信息中的说话人特征和非说话人特征,所述基础网络用于对所述说话人特征进行预测;所述互抗网络用于区分所述说话人特征和所述非说话人特征;执行以下训练步骤:将从所述特征样本集中选取的辨识矢量特征输入所述特征提取器,得到选取的辨识矢量特征对应的说话人特征和非说话人特征;将该说话人特征和该非说话人特征输入所述基础网络,以及将该说话人特征和该非说话人特征输入所述互抗网络,计算所述声纹识别网络的损失值;基于所述损失值和所述声纹识别网络,得到声纹识别模型。2.根据权利要求1所述的方法,所述将该说话人特征和该非说话人特征分别输入所述基础网络、所述互抗网络,计算所述声纹识别网络的损失值,包括:将该说话人特征和该非说话人特征输入所述基础网络,计算所述基础网络的损失值;将该说话人特征和该非说话人特征输入所述互抗网络,计算所述互抗网络的损失值;基于所述基础网络的损失值和所述互抗网络的损失值,计算得到所述声纹识别网络的损失值。3.根据权利要求2所述的方法,其中,所述基础网络包括:身份预测模块和重构模块,所述身份预测模块用于对该说话人特征进行说话人预测,所述重构模块用于对该非说话人特征进行选取的辨识矢量特征重构;所述将该说话人特征和该非说话人特征输入所述基础网络,计算所述基础网络的损失值,包括:将该说话人特征输入所述身份预测模块,得到所述身份预测模块输出的说话人概率,并计算所述身份预测模块的身份损失值;去除该说话人特征中的部分比例的特征,得到剩余特征;将所述剩余特征与该非说话人特征串联输入所述重构模块,得到所述重构模块输出的重构特征,并计算所述重构模块的重构损失值;基于所述身份损失值和所述重构损失值,计算得到所述基础网络的损失值。4.根据权利要求2所述的方法,其中,所述互抗网络包括:非说话人预测模块和说话人预测模块,所述非说话人预测模块用于对说话人特征进行非说话人预测,所述说话人预测模块用于对非说话人特征进行说话人预测,所述将该说话人特征和该非说话人特征输入所述互抗网络,计算所述互抗网络的损失值,包括:将该说话人特征输入所述非说话人预测模块,得到所述非说话人预测模块输出的非说话人特征,并计算所述非说话人预测模块的损失值;将该非说话人特征输入所述说话人预测模块,得到所述说话人预测模块输出的说话人特征,并计算所述说话人预测模块的损失值;基于所述非说话人预测模块的损失值和说话人预测模块的损失值,计算得到所述互抗网络的损失值。5.根据权利要求1

4之一所述的方法,其中,所述获取包括至少一个辨识矢量特征的特征样本集包括:
采集至少一个音频数据;针对所述至少一个音频数据中的各音频数据,对该音频数据进行分帧,得到多个音频帧;对多个音频帧中的各音频帧进行声学特征提取,得到特征序列,其中,所述特征序列用于表征该音频数据的多帧音频帧的声学特征;对所述特征序列进行辨识特征提取,得到该音频数据的辨识矢量特征。6.根据权利要求1

4之一所述的方法,其中,所述获取包括至少一个辨识矢量特征的特征样本集包括:采集多个音频数据;针对所述多个音频数据中的各个音频数据,对该音频数据进行说话人标注,得到说话人标注信息;对该音频数据进行分帧,得到该音频数据的多个音频帧;对所述多个音频帧中各音频帧进行声学特征提取,得到该音频数据对应的特征序列,其中,所述特征序列用于表征该音频数据的多帧音频帧的声学特征;采用各个音频数据对应的特征序列以及各个音频数据的说话人标注信息,对预先构建的特征提取网络进行训练,得到特征提取模型,所述特征提取网络用于表征特征序列与辨识矢量特征之间的对应关系;将所述多个音频数据中的各个音频数据对应的特征序列依次输入所述特征提取模型,得到包括多个辨识矢量特征的特征样本集。7.一种声纹识别方法,所述方法包括:获取待识别语音的辨识矢量特征;将所述待识别语音的辨识矢量特征输入采用如权利要求1

6中任一项所述的方法生成的声纹识别模型中,输出所述待识别语音的声纹识别结果。8.一种声纹识别模型训练装置,所述装置包括:样本获取单元,被配置成获取包括至少一个辨识矢量特征的特征样本集;网络获取单元,被配置成获取预先建立的声纹识别网络,所述声纹识别网络包括:特征提取器、基础网络和互抗网络;所述特征提取器用于提取输入信息中的说话人特征和非说话人特征,所述基础网络用于对所述说话人特征进行预测;所述互抗网络用于区分所述说话人特征和所述非说话人特征;特征获取单元,被配置成将从所述特征样本集中选取的辨识矢量特征输入所述特征提取器,...

【专利技术属性】
技术研发人员:赵情恩
申请(专利权)人:北京百度网讯科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1