【技术实现步骤摘要】
声纹识别模型训练方法和装置、声纹识别方法和装置
[0001]本公开涉及计算机
,具体涉及语音技术、深度学习等
,尤其涉及一种声纹识别模型训练方法和装置、声纹识别方法和装置、电子设备、计算机可读介质以及计算机程序产品。
技术介绍
[0002]在实际的声纹系统应用中,会受到说话人自身与环境等多重音素的干扰,对声纹特征提取的准确率造成了一定的影响。如何消除这些影响,更准确的提取出说话人的特征,成了近几年声纹的热门研究领域。
技术实现思路
[0003]本公开提供了一种声纹识别模型训练方法和装置、声纹识别方法和装置、电子设备、计算机可读介质以及计算机程序产品。
[0004]根据第一方面,提供了一种声纹识别模型训练方法,该方法包括:获取包括至少一个辨识矢量特征的特征样本集;获取预先建立的声纹识别网络,声纹识别网络包括:特征提取器、基础网络和互抗网络;特征提取器用于提取输入信息中的说话人特征和非说话人特征,基础网络用于对说话人特征进行预测;互抗网络用于区分说话人特征和非说话人特征;执行以下训练步骤:将从特征样本集中选取的辨识矢量特征输入特征提取器,得到选取的辨识矢量特征对应的说话人特征和非说话人特征;将该说话人特征和该非说话人特征输入基础网络,以及将该说话人特征和该非说话人特征输入互抗网络,计算声纹识别网络的损失值;基于损失值和声纹识别网络,得到声纹识别模型。
[0005]根据第二方面,提供了一种声纹识别方法,该方法包括:获取待识别语音的辨识矢量特征;将待识别语音的辨识矢量特征输入采用如 ...
【技术保护点】
【技术特征摘要】
1.一种声纹识别模型训练方法,所述方法包括:获取包括至少一个辨识矢量特征的特征样本集;获取预先建立的声纹识别网络,所述声纹识别网络包括:特征提取器、基础网络和互抗网络;所述特征提取器用于提取输入信息中的说话人特征和非说话人特征,所述基础网络用于对所述说话人特征进行预测;所述互抗网络用于区分所述说话人特征和所述非说话人特征;执行以下训练步骤:将从所述特征样本集中选取的辨识矢量特征输入所述特征提取器,得到选取的辨识矢量特征对应的说话人特征和非说话人特征;将该说话人特征和该非说话人特征输入所述基础网络,以及将该说话人特征和该非说话人特征输入所述互抗网络,计算所述声纹识别网络的损失值;基于所述损失值和所述声纹识别网络,得到声纹识别模型。2.根据权利要求1所述的方法,所述将该说话人特征和该非说话人特征分别输入所述基础网络、所述互抗网络,计算所述声纹识别网络的损失值,包括:将该说话人特征和该非说话人特征输入所述基础网络,计算所述基础网络的损失值;将该说话人特征和该非说话人特征输入所述互抗网络,计算所述互抗网络的损失值;基于所述基础网络的损失值和所述互抗网络的损失值,计算得到所述声纹识别网络的损失值。3.根据权利要求2所述的方法,其中,所述基础网络包括:身份预测模块和重构模块,所述身份预测模块用于对该说话人特征进行说话人预测,所述重构模块用于对该非说话人特征进行选取的辨识矢量特征重构;所述将该说话人特征和该非说话人特征输入所述基础网络,计算所述基础网络的损失值,包括:将该说话人特征输入所述身份预测模块,得到所述身份预测模块输出的说话人概率,并计算所述身份预测模块的身份损失值;去除该说话人特征中的部分比例的特征,得到剩余特征;将所述剩余特征与该非说话人特征串联输入所述重构模块,得到所述重构模块输出的重构特征,并计算所述重构模块的重构损失值;基于所述身份损失值和所述重构损失值,计算得到所述基础网络的损失值。4.根据权利要求2所述的方法,其中,所述互抗网络包括:非说话人预测模块和说话人预测模块,所述非说话人预测模块用于对说话人特征进行非说话人预测,所述说话人预测模块用于对非说话人特征进行说话人预测,所述将该说话人特征和该非说话人特征输入所述互抗网络,计算所述互抗网络的损失值,包括:将该说话人特征输入所述非说话人预测模块,得到所述非说话人预测模块输出的非说话人特征,并计算所述非说话人预测模块的损失值;将该非说话人特征输入所述说话人预测模块,得到所述说话人预测模块输出的说话人特征,并计算所述说话人预测模块的损失值;基于所述非说话人预测模块的损失值和说话人预测模块的损失值,计算得到所述互抗网络的损失值。5.根据权利要求1
‑
4之一所述的方法,其中,所述获取包括至少一个辨识矢量特征的特征样本集包括:
采集至少一个音频数据;针对所述至少一个音频数据中的各音频数据,对该音频数据进行分帧,得到多个音频帧;对多个音频帧中的各音频帧进行声学特征提取,得到特征序列,其中,所述特征序列用于表征该音频数据的多帧音频帧的声学特征;对所述特征序列进行辨识特征提取,得到该音频数据的辨识矢量特征。6.根据权利要求1
‑
4之一所述的方法,其中,所述获取包括至少一个辨识矢量特征的特征样本集包括:采集多个音频数据;针对所述多个音频数据中的各个音频数据,对该音频数据进行说话人标注,得到说话人标注信息;对该音频数据进行分帧,得到该音频数据的多个音频帧;对所述多个音频帧中各音频帧进行声学特征提取,得到该音频数据对应的特征序列,其中,所述特征序列用于表征该音频数据的多帧音频帧的声学特征;采用各个音频数据对应的特征序列以及各个音频数据的说话人标注信息,对预先构建的特征提取网络进行训练,得到特征提取模型,所述特征提取网络用于表征特征序列与辨识矢量特征之间的对应关系;将所述多个音频数据中的各个音频数据对应的特征序列依次输入所述特征提取模型,得到包括多个辨识矢量特征的特征样本集。7.一种声纹识别方法,所述方法包括:获取待识别语音的辨识矢量特征;将所述待识别语音的辨识矢量特征输入采用如权利要求1
‑
6中任一项所述的方法生成的声纹识别模型中,输出所述待识别语音的声纹识别结果。8.一种声纹识别模型训练装置,所述装置包括:样本获取单元,被配置成获取包括至少一个辨识矢量特征的特征样本集;网络获取单元,被配置成获取预先建立的声纹识别网络,所述声纹识别网络包括:特征提取器、基础网络和互抗网络;所述特征提取器用于提取输入信息中的说话人特征和非说话人特征,所述基础网络用于对所述说话人特征进行预测;所述互抗网络用于区分所述说话人特征和所述非说话人特征;特征获取单元,被配置成将从所述特征样本集中选取的辨识矢量特征输入所述特征提取器,...
【专利技术属性】
技术研发人员:赵情恩,
申请(专利权)人:北京百度网讯科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。