基于深度学习的图片篡改检测方法及系统技术方案

技术编号:33860597 阅读:45 留言:0更新日期:2022-06-18 10:50
本发明专利技术特别涉及一种基于深度学习的图片篡改检测方法,包括如下步骤:A、将待检测篡改图输入至粗略估计网络,得到靠近篡改边缘的条带检测图;B、将待检测篡改图和条带检测图叠加处理后输入至精确估计网络,得到精确的篡改边缘图;其中,粗略估计网络和精确估计网络都是预先训练好的网络模型。本发明专利技术通过提出双边缘的办法,完美地消除了篡改边缘属于篡改部分还是非篡改部分的二义性问题,通过由粗到细的思路,将复杂的直接预测篡改边缘的任务,转换为了先预测靠近篡改边缘的区域,再预测精确的篡改边缘的两个子任务,大大提升了模型的准确度。度。度。

【技术实现步骤摘要】
基于深度学习的图片篡改检测方法及系统


[0001]本专利技术涉及图像处理
,特别涉及一种基于深度学习的图片篡改检测方法及系统。

技术介绍

[0002]随着现代技术的发展,任何人都可以对图像进行编辑。虽然这方便了人们的生活,但是凡事都有两面性:当被恶意篡改的图像经过传播,就会影响人们对客观事物的判断,有时甚至会对社会和国家造成不良的影响。在所有的图像篡改方式中,图像拼接篡改方式因为操作容易,所以应用范围尤为广泛。图像拼接篡改因其操作较为容易,同样广泛存在于学术界,学术界的某些造假者“巧妙”地使用图像拼接篡改技巧修改实验效果欺骗了审核人,这种造假现象一直为人诟病。因此,图像拼接篡改的检测在学术界也变得越来越重要。
[0003]图像拼接篡改检测有着较长的研究历史,相关的方法可以分为两大类,即基于图像处理的方法和基于深度学习的方法。
[0004]传统的基于图像处理的方法进行篡改检测存在不小的缺陷,因为这些图像拼接篡改检测的方法通常都是采用手工设计的方式提取特征,这种基于手工设计的特征大多存在局限性,缺乏代表性,这也就导致了这些图像拼接篡改检测方法仅仅具有对某种篡改技术的鉴别能力。
[0005]近年来,随着深度学习技术的不断发展,卷积神经网络在特征提取方面的优异表现引起了图像拼接取证领域学者的注意。有的学者提出了一种基于深度学习技术的图像拼接篡改检测方法,该方法利用卷积神经网络(CNN)从输入的RGB彩色图像中自动学习分层表示,与随机策略不同,网络第一层的权值是使用空间丰富模型(SRM)残差图计算中使用的基本高通滤波器组来初始化的,它可以作为正则化器有效地抑制图像内容的影响,并捕获拼接篡改操作带来的细微伪影。利用预训练的CNN作为块描述子,从测试图像中提取稠密特征,然后探索一种特征融合技术,得到最终的判别特征用于支持向量机分类。此方法虽然可以有效地检测篡改区域,但在定位精确度上还有待提高。
[0006]为了学习更丰富的图像篡改特征,还有学者提出了一种双流Faster

RCNN网络,并对其进行端到端的训练,以检测给定的图像拼接篡改区域。同时借助Faster

RCNN在目标检测领域的应用,该网络不仅能准确定位篡改区域,还能标注出篡改类型,如是否为复制粘贴篡改等。也有人提出一种基于深信度网络(DBN)的图像拼接篡改检测与定位方法,该方法在小规模拼接篡改检测中具有良好的表现,但在大规模拼接检测中表现较差。
[0007]现有图像拼接篡改检测方法对于特定特征,如噪声一致性特征,马赛克一致性等,有较强依赖性,这导致了算法鲁棒性的欠缺。而且,已有的图像拼接篡改检测方法都以篡改区域为结果,这在特定情况下会产生二义性。例如,当拼接篡改的区域占原图像区域的1/2甚至更多时,逻辑上已经无法判断哪部分是非篡改区域,哪部分是篡改区域,但由于数据集生成时并没有考虑这一点,可能依旧会将占原图像区域1/2以上的拼接部分标注为篡改区域。大多数方法都仅仅依赖某一特定线索来实现篡改区域的检测,如颜色、边缘纹理和噪声
等。它们无法较好地应用于其它拼接类型的篡改图像,因而检测效果和鲁棒性较差。现有数据集的篡改区域和非篡改区域的特征往往差异明显,当遇到特征差异较小的图像时,由这些数据集训练的模型的检测能力会大打折扣,而此类图像在现实生活中非常常见。

技术实现思路

[0008]本专利技术的首要目的在于提供一种基于深度学习的图片篡改检测方法,能够精确的得到篡改边缘。
[0009]为实现以上目的,本专利技术采用的技术方案为:一种基于深度学习的图片篡改检测方法,包括如下步骤:A、将待检测篡改图输入至粗略估计网络,得到靠近篡改边缘的条带检测图;B、将待检测篡改图和条带检测图叠加处理后输入至精确估计网络,得到精确的篡改边缘图;其中,粗略估计网络和精确估计网络都是预先训练好的网络模型。
[0010]本专利技术的另一个目的在于提供一种基于深度学习的图片篡改检测系统,能够精确的得到篡改边缘。
[0011]为实现以上目的,本专利技术采用的技术方案为:一种基于深度学习的图片篡改检测系统,包括粗略检测模块、叠加模块以及精确检测模块;所述的粗略检测模块和精确检测模块中分别存储有预先训练好的粗略估计网络和精确估计网络;粗略检测模块用于对待检测篡改图进行处理得到靠近篡改边缘的条带检测图;叠加模块用于将待检测篡改图和条带检测图进行叠加处理;精确检测模块对叠加处理后的图片进行处理得到精确的篡改边缘图。
[0012]与现有技术相比,本专利技术存在以下技术效果:本专利技术通过提出双边缘的办法,完美地消除了篡改边缘属于篡改部分还是非篡改部分的二义性问题,通过由粗到细的思路,将复杂的直接预测篡改边缘的任务,转换为了先预测靠近篡改边缘的区域,再预测精确的篡改边缘的两个子任务,大大提升了模型的准确度。
附图说明
[0013]图1是本专利技术的流程图;图2是本专利技术具体的网络结构图;图3是本专利技术中其中一种数据集生成过程示意图;图4是本专利技术中另一种数据集生成过程示意图;图5是本专利技术的系统框图。
具体实施方式
[0014]下面结合图1至图5,对本专利技术做进一步详细叙述。
[0015]参阅图1,本专利技术公开了一种基于深度学习的图片篡改检测方法,包括如下步骤:A、将待检测篡改图输入至粗略估计网络,得到靠近篡改边缘的条带检测图;B、将待检测篡改图和条带检测图叠加处理后输入至精确估计网络,得到精确的篡改边缘图;其中,粗略估计网络和精确估计网络都是预先训练好的网络模型。本专利技术通过提出双边缘的办法,完美地消除了篡改边缘属于篡改部分还是非篡改部分的二义性问题,通过由粗到细的思路,将复杂的直接预测篡改边缘的任务,转换为了先预测靠近篡改边缘的区域,再预测精确的篡改边缘的两个子任务,大大提升了模型的准确度。
[0016]待检测篡改图和条带检测图叠加处理,即最简单的交集运算,运算得到的图中,处于条带上的像素点继续保持原图的像素值,处于条带外的像素点则变成黑色,这样在精确估计网络中处理时,只需要对条带上的像素点进行处理,需要处理的像素点少了很多,受到其他像素点的干扰也低了很多,大大提高了精确估计网络的训练速度和篡改边缘的识别精度。
[0017]篡改边缘两侧的不一致性较难被掩盖,因此,篡改边缘检测不需要借助某一特性线索如噪声、边缘纹理、颜色,只需要检测不一致性即可。显而易见的,这会给模型带来较好的泛化性和准确性。但篡改边缘检测也会产生边缘检测领域的二义性问题:单像素的篡改边缘到底是属于篡改区域还是属于非篡改区域,为了解决这一问题,本案将单篡改边缘转换为双篡改边缘(为了方便,后文统称为单边缘和双边缘),具体表现为,在交界处,将属于篡改区域的边界划分为篡改区域边缘,非篡改区域的边界同理,二者组合构成篡改双边缘。
[0018]为了减小篡改边缘检测网络的压力,我们提出了由粗到细的图像拼接篡改痕迹检测神经网络算法,该两段式网络将一个复杂的“直接预测篡改区域的边缘”任务分为了较为简单的先“预测大致靠近篡改边缘的区域”,再“预测本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于深度学习的图片篡改检测方法,其特征在于:包括如下步骤:A、将待检测篡改图输入至粗略估计网络,得到靠近篡改边缘的条带检测图;B、将待检测篡改图和条带检测图叠加处理后输入至精确估计网络,得到精确的篡改边缘图;其中,粗略估计网络和精确估计网络都是预先训练好的网络模型。2.如权利要求1所述的基于深度学习的图片篡改检测方法,其特征在于:所述的粗略估计网络和精确估计网络均为U

Net网络,粗略估计网络通过第一数据集训练得到且其训练时的损失函数为第一损失函数,精确估计网络通过第二数据集训练得到且其训练时的损失函数为第二损失函数。3.如权利要求2所述的基于深度学习的图片篡改检测方法,其特征在于:所述的第一数据集和第二数据集按如下步骤生成:S100、从已有的篡改数据集中收集多张原始图片;S200、以收集到原始图片的标签为基础,制作篡改双边缘标签;S300、以原始图片和篡改双边缘标签生成第一数据集;S400、将篡改双边缘标签对应的二值分类图像和原始图像进行叠加处理,并以叠加后的图片和原始图片的标签生成第二数据集。4.如权利要求3所述的基于深度学习的图片篡改检测方法,其特征在于:所述的步骤S100中,已有的篡改数据集通过如下步骤生成:S111、选择背景和物体相似性较大、肉眼较难区分的样本图片;S112、选中样本图片中的指定目标并复制至样本图片的其他位置处得到原始图片,复制到其他位置的指定目标即篡改区域,根据该篡改区域生成标签。5.如权利要求3所述的基于深度学习的图片篡改检测方法,其特征在于:所述的步骤S100中,已有的篡改数据集通过如下步骤生成:S121、选择无周期性的纹理图作为底图,随机选择或生成一个标签得到随机区域d;S12...

【专利技术属性】
技术研发人员:田辉彭胜聪郭玉刚张志翔
申请(专利权)人:合肥高维数据技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1