一种基于UNet++网络的掌纹识别方法技术

技术编号:25186601 阅读:24 留言:0更新日期:2020-08-07 21:14
本发明专利技术设计和实现了一种基于UNet++网络的掌纹识别方法,所述方法包括构建训练集和测试集样本、构建UNet++网络模型、利用所述构建的训练集和测试集样本对所述UNet++网络模型进行训练以及利用训练好的UNet++网络模型对掌纹进行识别等步骤。本发明专利技术的技术方案把不同类别掌纹线对应坐标的回归问题转换成了对不同掌纹线类别的逐像素点分类问题,不仅简化了模型的训练难度而且提高了掌纹线预测的准确性。同时借助UNet++网络模型最终的剪枝结构,可以大大提高模型预测效率。本发明专利技术还公开用于实现上述方法的一种计算机可读存储介质。

【技术实现步骤摘要】
一种基于UNet++网络的掌纹识别方法
本专利技术涉及生物特征识别
,特别是涉及一种基于UNet++网络的掌纹识别方法以及实现该方法的计算机可读存储介质。
技术介绍
传统的掌纹识别存在看相人主观臆断和宣传封建迷信的缺陷,通过现在的图像识别技术和大数据分析能力,可以实现大量用户手相的技术分析和统计,对其描述的准确性进行统计,达到去其糟粕、取其精华的效果。申请号为CN201911045739.3的中国专利技术专利申请提出一种掌纹验证方法、装置、计算机设备及可读存储介质,该方法包括:当接收到掌纹验证指令时,通过预设摄像头获取待验证图像;其中,所述待验证图像包括用户的手掌信息;利用预先训练好的区域识别模型从所述待验证图像中确定出掌纹区域;利用旋转不变性局部二值模式LBP算法,计算出所述掌纹区域中的每个像素点的标准LBP特征值;根据所述掌纹区域中的每个像素点的标准LBP特征值,形成所述待验证图像的掌纹特征信息;将所述待验证图像的掌纹特征信息与预设数据库中的标准掌纹信息进行逐一匹配,若匹配成果,则掌纹验证通过;本专利技术提高了掌纹识别的准确性。随着深度学习的不断发展,深度学习在图像分割领域取得了骄人成绩。最早的分割网络是2014年提出的全卷积网络(FullyConvolutionalNettorks)最早将端到端的卷积网络推广到语义分割中。到2015年的UNet网络,UNet网络采用完全对称的编码解码模型,以及跨层连接(SkipConnection)把高层语义信息和低层语义信息结合起来,有效提升了目标分割的准确性。2018年的UNet++网络是在UNet网络基础上添加了密集卷积以及深度监督部分,进一步提升了目标分割的准确性。然而,在掌纹识别的算法中,获取掌纹坐标最简单的方法是直接通过边缘检测算子来提取图像的边缘信息,这种方法检测出的边线越多,结果也就越容易受到图片噪声的影响,这种方法并不能得到掌纹线对应的类别。另外一种掌纹识别的方法是通过卷积来提取图片信息,然后通过全连接层将提取的特征回归到各个掌纹线对应的坐标。这种方法模型很难训练,需要大量的手掌标注图片。而目前没有公开的标注好的掌纹数据,所有训练数据都需要人工来标注,因此这种方法成本比较昂贵。
技术实现思路
为解决上述技术问题,本专利技术提出一种基于UNet++网络的掌纹识别方法以及实现该方法的计算机可读存储介质。所述方法包括构建训练集和测试集样本、构建UNet++网络模型、利用所述构建的训练集和测试集样本对所述UNet++网络模型进行训练以及利用训练好的UNet++网络模型对掌纹进行识别等步骤。具体而言,本专利技术设计和实现了一种基于UNet++网络的掌纹识别方法,把不同类别掌纹线对应坐标的回归问题转换成了对不同掌纹线类别的逐像素点分类问题,不仅简化了模型的训练难度而且提高了掌纹线预测的准确性。同时借助UNet++网络模型最终的剪枝结构,可以大大提高模型预测效率。具体来说,本专利技术所述的一种基于UNet++的掌纹识别方法,包括如下步骤:S101:开始S102:构建训练集和测试集样本。每对手掌图片样本包括收集好的手掌图片以及标记好相应的掌纹线标签。S103:构建UNet++网络模型。UNet++网络是在UNet网络基础上的改进版,主体结构是一个编码解码模型。S104:根据S102步构建的训练集样本对S103步构建的UNet++网络进行训练。S105:利用训练好的UNet++网络模型进行预测。S106:结束。作为本专利技术不同于现有技术的突出性贡献,在所述步骤S102中,对于每张输入的手掌图片Ph,通过标记得到所述手掌图片的每一类别的掌纹线的多个采样点的二维坐标值;将所述多个采样点的二维坐标值转换成和所述手掌图片大小一致的二维标签;将第一比例的所述手掌图片及其对应的二维标签作为训练集,第二比例的所述所述手掌图片及其对应的二维标签作为测试集。具体来说,在所述步骤S103中,所述UNet++网络模型包括下采样层、上采样层以及跳层连接层;所述跳层连接层将每一次下采样得到的特征通过级联和卷积与上采样结果融合。作为是体现上述突出性贡献的关键技术手段,在所述步骤S102中,对于每张输入的手掌图片Ph,通过标记得到所述手掌图片的每一类别的掌纹线的多个采样点的二维坐标值,具体包括:所述类别至少包括第一类别、第二类别、第三类别以及第四类别;针对每一类别设置对应的标签值;针对每一个采样点的二维坐标值,判断该采样点属于何种类别,从而将该采样点的二维坐标值转化为对应类别的标签值。更具体的,对于每张输入的手掌图片Ph,通过标记得到所述手掌图片的每一类别的掌纹线的多个采样点的二维坐标值,具体包括:对所述手掌图片的所述采样点进行旋转和/或水平镜像变换,得到扩展后的多个采样点。作为优选,对于每张输入的手掌图片Ph,通过深度学习标注工具LabelMe进行所述标记。具体训练时,将第三比例的所述手掌图片及其对应的二维标签作为校验集;每在训练集上训练一个周期就在校验集上进行一次测试,直到连续五次在校验集上测试的准确率不再上升的时候停止训练。在停止训练之后,利用所述测试集进行模型测试。在停止训练之后,利用所述测试集进行模型测试;如果所述模型测试的结果超过预定阈值,则对所述UNet++网络模型进行一次剪枝操作后,重新开始所述训练。最后的预测输出时,所述方法包括:对最后预测结果进行先腐蚀后膨胀的形态学操作。本专利技术的上述过程可以通过计算机全自动的实现,因此,本专利技术还提供一种计算机可读存储介质,其上存储有计算机可执行程序指令,通过处理器和存储器执行所述可执行程序指令,用于实现所述的方法。本专利技术的优点和技术效果至少包括:1、一种端到端的掌纹识别方法。直接输入手掌图片即可预测得到该图片对应不同类别的掌纹线。2、更少的手掌数据集。借助于UNet++网络独特的编码解码结构以及跨层连接等特点,可以更好的把高层特征和低层特征进行融合,这种高效的特征提取方式可以使用更少的数据集进行训练模型来达到最终效果。3、大大提升了掌纹识别的效率。通过对训练好的UNet++模型进行剪枝操作,在不减少精度的情况下,大大缩短预测一张图片所需要的时间。本专利技术的进一步优点将结合说明书附图在具体实施例部分进一步详细体现。附图说明为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1是本专利技术一个实施例的基于UNet++网络的掌纹识别方法的整体流程图。图2是图1所述方法中手掌图片的掌纹线每一类别示意图。图3是图1所述方法中标记好相应的掌纹线标签的流程示意图。图4是图1所述方本文档来自技高网
...

【技术保护点】
1.一种基于UNet++网络的掌纹识别方法,所述方法包括如下步骤:/n(1)构建训练集和测试集样本:对输入的手掌图片样本,标记好相应的掌纹线标签;/n(2)构建UNet++网络模型;/n(3)利用所述构建的训练集和测试集样本,对所述UNet++网络模型进行训练;/n(4)利用训练好的UNet++网络模型对掌纹进行识别;/n其特征在于:/n所述步骤(1)具体包括:/n对于每张输入的手掌图片Ph,通过标记得到所述手掌图片的每一类别的掌纹线的多个采样点的二维坐标值;/n将所述多个采样点的二维坐标值转换成和所述手掌图片大小一致的二维标签;/n将第一比例的所述手掌图片及其对应的二维标签作为训练集,第二比例的所述所述手掌图片及其对应的二维标签作为测试集。/n

【技术特征摘要】
1.一种基于UNet++网络的掌纹识别方法,所述方法包括如下步骤:
(1)构建训练集和测试集样本:对输入的手掌图片样本,标记好相应的掌纹线标签;
(2)构建UNet++网络模型;
(3)利用所述构建的训练集和测试集样本,对所述UNet++网络模型进行训练;
(4)利用训练好的UNet++网络模型对掌纹进行识别;
其特征在于:
所述步骤(1)具体包括:
对于每张输入的手掌图片Ph,通过标记得到所述手掌图片的每一类别的掌纹线的多个采样点的二维坐标值;
将所述多个采样点的二维坐标值转换成和所述手掌图片大小一致的二维标签;
将第一比例的所述手掌图片及其对应的二维标签作为训练集,第二比例的所述所述手掌图片及其对应的二维标签作为测试集。


2.如权利要求1所述的基于UNet++网络的掌纹识别方法,其特征在于:
步骤(2)中,所述UNet++网络模型包括下采样层、上采样层以及跳层连接层;
所述跳层连接层将每一次下采样得到的特征通过级联和卷积与上采样结果融合。


3.如权利要求1所述的基于UNet++网络的掌纹识别方法,其特征在于:
所述步骤(1)中,对于每张输入的手掌图片Ph,通过标记得到所述手掌图片的每一类别的掌纹线的多个采样点的二维坐标值,具体包括:
所述类别至少包括第一类别、第二类别、第三类别以及第四类别;
针对每一类别设置对应的标签值;
针对每一个采样点的二维坐标值,判断该采样点属于何种类别,从而将该采样点的二维坐标值转化为对应类别的标签值。


4.如权利要求1或3所述的基于UNet++网络的掌纹识别方法,其特征...

【专利技术属性】
技术研发人员:李玲贺同路杨菲李嘉懿郭学栋任永亮
申请(专利权)人:北京智能工场科技有限公司
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1