The invention provides a voiceprint authentication processing method and device, wherein, the method comprises the following steps: the depth of the neural network DNN voiceprint baseline system mixed application, the first feature vector is extracted from the training set of each speech; according to the first eigenvector of the each speech and pre marked gender labeling training data according to the voice of genderclassifier; the training set of different gender, different gender training DNN model; DNN model according to the speech data of different sex and the different gender training set, vector model, characteristic of traditional background were trained in different gender extraction model, linear discriminant analysis and probability model. A voiceprint authentication processing model of gender, in order to improve the efficiency and accuracy of voiceprint recognition.
【技术实现步骤摘要】
本申请涉及声纹认证
,尤其涉及一种声纹认证处理方法及装置。
技术介绍
随着技术的不断进步,声纹识别(VoiceprintRecognition,VPR)技术的应用领域越来越广泛。声纹识别可以确认某段语音是否是指定的某个人所说的,例如,考勤打卡,或者银行交易时需要对用户声音进行确认。在声纹识别之前,都需要先对说话人的声纹进行建模,这就是所谓的“训练”或“学习”过程。目前的声纹识别的训练过程是通过通用的模型进行声纹的训练和识别,准确性不高。
技术实现思路
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本申请的第一个目的在于提出一种声纹认证处理方法,该方法建立了区分性别的声纹认证处理模型,以便提高了声纹认证的效率和准确性。本申请的第二个目的在于提出一种声纹认证处理装置。为达上述目的,本申请第一方面实施例提出了一种声纹认证处理方法,包括:应用混合性别的深度神经网络DNN声纹基线系统,提取训练集中每条语音的第一特征向量;根据所述每条语音的第一特征向量以及预先标注的性别标签训练性别分类器;根据所述训练集中不同性别的语音数据,分别训练不同性别的DNN模型;根据不同性别的DNN模型以及所述训练集中不同性别的语音数据,分别训练不同性别的统一背景模型、特征向量提取模型、以及概率线性判别分析模型。本申请实施例的声纹认证处理方法,通过应用混合性别的深度神经网络DNN声纹基线系统,提取训练集中每条 ...
【技术保护点】
一种声纹认证处理方法,其特征在于,包括以下步骤:应用混合性别的深度神经网络DNN声纹基线系统,提取训练集中每条语音的第一特征向量;根据所述每条语音的第一特征向量以及预先标注的性别标签训练性别分类器;根据所述训练集中不同性别的语音数据,分别训练不同性别的DNN模型;根据不同性别的DNN模型以及所述训练集中不同性别的语音数据,分别训练不同性别的统一背景模型、特征向量提取模型、以及概率线性判别分析模型。
【技术特征摘要】
1.一种声纹认证处理方法,其特征在于,包括以下步骤:
应用混合性别的深度神经网络DNN声纹基线系统,提取训练集中每条语音的第一特征
向量;
根据所述每条语音的第一特征向量以及预先标注的性别标签训练性别分类器;
根据所述训练集中不同性别的语音数据,分别训练不同性别的DNN模型;
根据不同性别的DNN模型以及所述训练集中不同性别的语音数据,分别训练不同性别
的统一背景模型、特征向量提取模型、以及概率线性判别分析模型。
2.如权利要求1所述的方法,其特征在于,还包括:
接收用户发送的携带用户标识的声纹注册请求;
获取用户发送的用于声纹注册的多条语音,提取第一条语音的第一特征信息,应用所
述性别分类器获取所述第一特征信息的性别标签;
根据与所述性别标签对应的DNN模型获取每条语音的后验概率;
根据与所述性别标签对应的统一背景模型和特征向量提取模型,分别提取每条语音的
第二特征向量;
根据与所述多条语音对应的多个第二特征向量获取所述用户的声纹注册模型;
将所述用户标识、所述性别标签、所述声纹注册模型的对应关系存储到声纹注册数据
库。
3.如权利要求2所述的方法,其特征在于,所述根据与所述多条语音对应的多个第二
特征向量获取所述用户的声纹注册模型,包括:
获取所述多个第二特征向量的平均特征向量作为所述用户的声纹注册模型。
4.如权利要求2所述的方法,其特征在于,还包括:
接收用户发送的携带用户标识的声纹识别请求;
查询所述声纹注册数据库获取与所述用户标识对应的性别标签和声纹注册模型;
获取用户发送的用于声纹识别的语音,根据与所述性别标签对应的DNN模型获取所述
语音的后验概率;
应用与所述性别标签对应的统一背景模型和特征向量提取模型,提取所述语音的第二
特征向量;
应用与所述性别标签对应的概率线性判别分析模型,比较所述语音的第二特征向量和
\t所述声纹注册模型的相似度;
根据所述相似度和预设的阈值向所述用户返回声纹识别结果。
5.如权利要求4所述的方法,其特征在于,所述根据所述相似度和预设的阈值向所述
用户返回声纹识别结果,包括:
比较所述相似度和预设的阈值的大小;
若获知所述相似度大于等于预设的阈值,则返回声纹识别成功;
若获知所述相似度小于预设的阈值,则返回声纹识别失败。
6.一种声纹认证处理装置,其特征在于,包括:
提...
【专利技术属性】
技术研发人员:李超,吴本谷,朱林,
申请(专利权)人:百度在线网络技术北京有限公司,
类型:发明
国别省市:北京;11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。