【技术实现步骤摘要】
一种基于生成对抗网络的漫画人物身份识别方法
本专利技术涉及计算机视觉领域,更具体地,涉及一种基于生成对抗网络的漫画人物身份识别方法。
技术介绍
过去几十年人脸识别一直是计算机视觉领域重点研究的问题。近年来,随着科技的迅速发展,特别是随着深度学习的快速发展,深度人脸识别模型在一些数据集上已经达到甚至超越了人类的识别水平,例如,在人脸识别最常用的LFW数据集上,现有的人脸识别算法可以达到99%以上的准确率。但是,已有的人脸识别算法大都是围绕真实的人脸图像进行研究的,很少有专门的算法来研究漫画人脸识别这一主题,以用于对漫画人物身份进行识别。人脸识别是基于深度学习的面部分析技术,包括人脸检测与分析、五官定位、人脸比对与验证、人脸检索、活体检测等。漫画人脸识别属于人脸识别范式,称为异构人脸识别(HFR)。其任务是,识别出输入漫画人脸图对应身份的算法,即对于检索库中任意给定的漫画人脸图片,去查询库中寻找与之最相似的真实人脸图片,并通过相似度阈值判断两张图片是否是同一身份,如果是,返回对应的身份,否则返回不在库中。由于漫画具有强烈的讽刺性和幽默感,漫画人脸识别在计算机视觉领域中正受到越来越多的关注,漫画因其具有夸张的特征,这些特征往往会导致这些面部与隐含的人脸属性(例如面部对称性违反,异常的面部轮廓,不自然的肤色等)与大多数基准检测和识别技术存在着偏差。虽然这些技术在生物识别扫描仪和医疗保健设备等日常设备中广泛应用于人类,但卡通产业的惊人增长已经夸大了卡通面孔类似技术的需求,例如,在图像搜索引擎中加入用于搜索类似漫画的网页 ...
【技术保护点】
1.一种基于生成对抗网络的漫画人物身份识别方法,其特征在于,包括步骤:/n步骤S1:获取真实行人和漫画行人图片,建立包含真实行人的检索库和包含漫画行人的查询库;/n步骤S2:构建人脸检测对齐模型,对检索库和查询库中的图片进行人脸检测对齐;/n步骤S3:构建漫画生成模型,将真实行人和人脸转换成对应的漫画图片;/n步骤S4:构建漫画人物身份识别模型,提取检索库和查询库中图片的融合特征,计算漫画行人和真实行人融合特征间的相似度分数;/n步骤S5:计算漫画行人融合特征间的相似度分数,利用漫画行人间的相似度分数对漫画行人与真实行人间的相似度分数进行重排序,设定阈值获取查询库中漫画行人在检索库中所对应的真实行人。/n
【技术特征摘要】
1.一种基于生成对抗网络的漫画人物身份识别方法,其特征在于,包括步骤:
步骤S1:获取真实行人和漫画行人图片,建立包含真实行人的检索库和包含漫画行人的查询库;
步骤S2:构建人脸检测对齐模型,对检索库和查询库中的图片进行人脸检测对齐;
步骤S3:构建漫画生成模型,将真实行人和人脸转换成对应的漫画图片;
步骤S4:构建漫画人物身份识别模型,提取检索库和查询库中图片的融合特征,计算漫画行人和真实行人融合特征间的相似度分数;
步骤S5:计算漫画行人融合特征间的相似度分数,利用漫画行人间的相似度分数对漫画行人与真实行人间的相似度分数进行重排序,设定阈值获取查询库中漫画行人在检索库中所对应的真实行人。
2.根据权利要求1所述的基于生成对抗网络的漫画人物身份识别方法,其特征在于,步骤S2中构建人脸检测对齐模型,步骤是:
步骤S21:在训练模型阶段,将WIDERFACE数据集中的真实人脸和WebCaricature、DANBOORU2018数据集中漫画人脸作为训练数据分别送入到参数不共享的TinyDarknet网络中提取人脸特征;而后将真实人脸所对应的网络分为三个支路,第一个支路用于对人脸特征进行分类、第二个支路用于对人脸框进行回归、第三个支路用于对真实人脸关键点进行回归;将漫画人脸所对应的网络分为四个支路,第一个支路用于对人脸特征进行分类、第二个支路用于对人脸框进行回归、第三个支路用于对真实人脸关键点进行回归、第四个支路用于对漫画人脸风格进行分类;
步骤S22:在测试模型阶段,利用训练好的真实人脸检测模型对检索库中真实行人图片进行人脸检测,得到人脸检测框和人脸关键点,而后通过人脸关键点对人脸进行对齐;利用训练好的漫画人脸检测模型对查询库中漫画行人图片进行人脸检测,得到人脸检测框、人脸关键点和漫画人脸风格类别,而后通过漫画人脸风格类别判断该漫画行人图片在检索库中是否有与之对应的真实行人图片,如果该漫画人脸图片的风格是日系,则不用去检索库中寻找与之对应的真实行人图片,直接返回检索库中没有与之对应身份的真实人脸图片;如果该漫画人脸图片的风格是非日系,则需要去检索库中寻找与之对应的真实行人图片,返回该真实行人图片的ID。
3.根据权利要求1所述的基于生成对抗网络的漫画人物身份识别方法,其特征在于,步骤S3中构建漫画生成模型,将真实行人和人脸转换成对应的漫画图片,步骤是:
步骤S31:将成对原始真实人脸图片x、漫画人脸图片y,及其对应关键点送入生成网络G中,G分为三个支路,分别为风格编码、内容编码和关键点检测;接着利用编码的风格ES对编码的内容EC进行纹理渲染记为R,为了防止风格渲染后的图片丢失语义信息,在此增加一个身份重构损失Lidr=E[||R(EC(x),ES(x))-x||1],x为原始真实人脸图片,E[·]表示取一个训练批次中所有训练样本计算值的期望值;而后利用定位的关键点K与偏移量ΔK对渲染后的图片进行面部变形,记为W,得到生成的漫画图片W(R(EC(x),ES(x)),K,ΔK);
步骤S32:将生成的漫画图片送入到判别网络D中,通过损失函数对其进行约束训练,最终得到漫画生成模型。
4.根据权利要求3所述的基于生成对抗网络的漫画人物身份识别方法,其特征在于,...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。