一种活体的判别方法、装置、电子设备及存储介质制造方法及图纸

技术编号:37970702 阅读:5 留言:0更新日期:2023-06-30 09:46
本申请提供了一种活体的判别方法、装置、电子设备及存储介质,该活体的判别方法包括:获取用户阅读判定文字的视频;判定文字在不同方言下对应的嘴型类别相同;获取判定文字的视频中每一视频帧对应的嘴型坐标信息;将所有的嘴型坐标信息按序输入到嘴型检测模型中,得到视频中用户的嘴型类别;嘴型检测模型是通过嘴型坐标信息样本以及对应的嘴型类别训练得到的;判断用户的嘴型类别与判定文字对应的嘴型类别是否相同;若用户的嘴型类别与判定文字对应的嘴型类别相同,则确定用户为活体。通过本申请的方式,能够判断用户是否为活体,提高了判断用户是否为活体的准确性。判断用户是否为活体的准确性。判断用户是否为活体的准确性。

【技术实现步骤摘要】
一种活体的判别方法、装置、电子设备及存储介质


[0001]本专利技术涉及生物识别
,具体而言,涉及一种活体的判别方法、装置、电子设备及存储介质。

技术介绍

[0002]随着移动互联网的发展,活体判别在金融保险、银行证券等领域得到越来越多关注,目前常用的活体判别技术有通过数字发音的音频作为判别依据的读数活体识别。
[0003]但是读数活体识别只根据数字发音的音频作为判别依据,但是不同的数在不同方言下可能发出类似的声音,导致数字发音的音频作为判别依据不准确。

技术实现思路

[0004]有鉴于此,本申请的目的在于提供一种活体的判别方法、装置、电子设备及存储介质,能够判断用户是否为活体,提高了判断用户是否为活体的准确性。
[0005]第一方面,本申请实施例提供了一种活体的判别方法,该活体的判别方法包括:
[0006]获取用户阅读判定文字的视频;判定文字在不同方言下对应的嘴型类别相同;
[0007]获取判定文字的视频中每一视频帧对应的嘴型坐标信息;
[0008]将所有的嘴型坐标信息按序输入到嘴型检测模型中,得到视频中用户的嘴型类别;嘴型检测模型是通过嘴型坐标信息样本以及对应的嘴型类别训练得到的;
[0009]判断用户的嘴型类别与判定文字对应的嘴型类别是否相同;
[0010]若用户的嘴型类别与判定文字对应的嘴型类别相同,则确定用户为活体。
[0011]在一种可能的实施方式中,嘴型类别包括先张嘴后闭嘴类别、先闭嘴后张嘴类别、嘟嘴类别;该方法还包括
[0012]从先张嘴后闭嘴类别、先闭嘴后张嘴类别、嘟嘴类别分别对应的预设文字中分别选取一个文字进行组合,作为用户的判定文字。
[0013]在一种可能的实施方式中,获取判定文字的视频中每一视频帧对应的嘴型坐标信息,包括:
[0014]通过人脸关键点检测模型检测视频中每一视频帧对应的初始嘴型坐标信息;
[0015]通过卡尔曼滤波算法对初始嘴型坐标信息进行滤波,得到目标嘴型坐标信息。
[0016]在一种可能的实施方式中,在判断所述用户的嘴型类别与判定文字对应的嘴型类别是否相同之前,该方法还包括:
[0017]获取用户阅读判定文字的音频;
[0018]将音频转换成文字,得到音频中用户阅读的阅读文字;
[0019]在确定用户的嘴型类别与判定文字对应的嘴型类别相同之后,该方法还包括:
[0020]判断用户阅读的阅读文字与判定文字是否相同;
[0021]若用户阅读的阅读文字与判定文字相同,则确定用户为活体。
[0022]在一种可能的实施方式中,将音频转换成文字,得到音频中用户阅读的阅读文字,
包括:
[0023]通过自动语音识别技术将音频转换成文字,得到音频中用户阅读的第一阅读文字。
[0024]在一种可能的实施方式中,将音频转换成文字,得到音频中用户阅读的阅读文字,还包括:
[0025]在音频中增加高斯噪声后,通过自动语音识别技术将增加高斯噪声的音频转换成文字,得到音频中用户阅读的第二阅读文字。
[0026]在一种可能的实施方式中,判断用户阅读的阅读文字与判定文字是否相同,包括:
[0027]若第一阅读文字或第二阅读文字与判定文字相同,则用户阅读的阅读文字与判定文字相同。
[0028]第二方面,本申请实施例还提供了一种活体的判别装置,该活体的判别装置包括:
[0029]获取模块,用于获取用户阅读判定文字的视频;判定文字在不同方言下对应的嘴型类别相同;
[0030]获取模块,还用于获取判定文字的视频中每一视频帧对应的嘴型坐标信息;
[0031]输入模块,用于将所有的嘴型坐标信息按序输入到嘴型检测模型中,得到视频中用户的嘴型类别;嘴型检测模型是通过嘴型坐标信息样本以及对应的嘴型类别训练得到的;
[0032]判断模块,用于判断用户的嘴型类别与判定文字对应的嘴型类别是否相同;若用户的嘴型类别与判定文字对应的嘴型类别相同,则确定用户为活体。
[0033]在一种可能的实施方式中,嘴型类别包括先张嘴后闭嘴类别、先闭嘴后张嘴类别、嘟嘴类别;该装置还包括:选取模块;
[0034]选取模块,用于从先张嘴后闭嘴类别、先闭嘴后张嘴类别、嘟嘴类别分别对应的预设文字中分别选取一个文字进行组合,作为用户的判定文字。
[0035]在一种可能的实施方式中,获取模块,具体用于通过人脸关键点检测模型检测视频中每一视频帧对应的初始嘴型坐标信息;通过卡尔曼滤波算法对初始嘴型坐标信息进行滤波,得到目标嘴型坐标信息。
[0036]在一种可能的实施方式中,该装置还包括:转换模块;
[0037]获取模块,还用于获取用户阅读判定文字的音频;
[0038]转换模块,用于将音频转换成文字,得到音频中用户阅读的阅读文字;
[0039]判断模块,还用于判断用户阅读的阅读文字与判定文字是否相同;若用户阅读的阅读文字与判定文字相同,则确定用户为活体。
[0040]在一种可能的实施方式中,转换模块,具体用于通过自动语音识别技术将音频转换成文字,得到音频中用户阅读的第一阅读文字。
[0041]在一种可能的实施方式中,转换模块,具体用于在音频中增加高斯噪声后,通过自动语音识别技术将增加高斯噪声的音频转换成文字,得到音频中用户阅读的第二阅读文字。
[0042]在一种可能的实施方式中,判断模块,具体用于若第一阅读文字或第二阅读文字与判定文字相同,则用户阅读的阅读文字与判定文字相同。
[0043]第三方面,本申请实施例还提供了一种电子设备,包括:处理器、存储介质和总线,
存储介质存储有处理器可执行的机器可读指令,当电子设备运行时,处理器与存储介质之间通过总线通信,处理器执行所述机器可读指令,以执行如第一方面任一项活体的判别方法的步骤。
[0044]第四方面,本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器运行时执行如第一方面任一项活体的判别方法的步骤。
[0045]本申请实施例提供了一种活体的判别方法、装置、电子设备及存储介质,该活体的判别方法包括:获取用户阅读判定文字的视频;判定文字在不同方言下对应的嘴型类别相同;获取判定文字的视频中每一视频帧对应的嘴型坐标信息;将所有的嘴型坐标信息按序输入到嘴型检测模型中,得到视频中用户的嘴型类别;嘴型检测模型是通过嘴型坐标信息样本以及对应的嘴型类别训练得到的;判断用户的嘴型类别与判定文字对应的嘴型类别是否相同;若用户的嘴型类别与判定文字对应的嘴型类别相同,则确定用户为活体。本申请通过判断用户阅读的在不用方言下对应的嘴型类别相同的判定文字的视频中用户的嘴型类别,与判定文字对应的嘴型类别是否相同来判断用户是否为活体,提高了判断用户是否为活体的准确性。
附图说明
[0046]为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种活体的判别方法,其特征在于,所述活体的判别方法包括:获取用户阅读判定文字的视频;所述判定文字在不同方言下对应的嘴型类别相同;获取所述判定文字的视频中每一视频帧对应的嘴型坐标信息;将所有的嘴型坐标信息按序输入到嘴型检测模型中,得到所述视频中所述用户的嘴型类别;所述嘴型检测模型是通过嘴型坐标信息样本以及对应的嘴型类别训练得到的;判断所述用户的嘴型类别与所述判定文字对应的嘴型类别是否相同;若所述用户的嘴型类别与所述判定文字对应的嘴型类别相同,则确定所述用户为活体。2.根据权利要求1所述的活体的判别方法,其特征在于,所述嘴型类别包括先张嘴后闭嘴类别、先闭嘴后张嘴类别、嘟嘴类别;所述方法还包括:从先张嘴后闭嘴类别、先闭嘴后张嘴类别、嘟嘴类别分别对应的预设文字中分别选取一个文字进行组合,作为所述用户的判定文字。3.根据权利要求1或2所述的活体的判别方法,其特征在于,所述获取所述判定文字的视频中每一视频帧对应的嘴型坐标信息,包括:通过人脸关键点检测模型检测所述视频中每一视频帧对应的初始嘴型坐标信息;通过卡尔曼滤波算法对所述初始嘴型坐标信息进行滤波,得到目标嘴型坐标信息。4.根据权利要求3所述的活体的判别方法,其特征在于,在所述判断所述用户的嘴型类别与所述判定文字对应的嘴型类别是否相同之前,所述方法还包括:获取用户阅读所述判定文字的音频;将所述音频转换成文字,得到所述音频中所述用户阅读的阅读文字;在确定所述用户的嘴型类别与所述判定文字对应的嘴型类别相同之后,所述方法还包括:判断所述用户阅读的阅读文字与所述判定文字是否相同;若所述用户阅读的阅读文字与所述判定文字相同,则确定所述用户为活体。5.根据权利要求4所述的活体的判别方法,其特征在于,所述将所述音频转换成文字,得到所述音频中所述用户阅读的阅读文字,包括:...

【专利技术属性】
技术研发人员:周军
申请(专利权)人:平安银行股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1