一种基于模型的图像融合方法技术

技术编号:22221451 阅读:26 留言:0更新日期:2019-09-30 02:46
本发明专利技术涉及一种基于模型的图像融合方法,包括以下步骤:步骤1:导入物体模型信息;步骤2:配置模型参数;步骤3:通过SURF算法对被检测图片提取特征点;步骤4:对被检测图片进行MIFA方法处理;与现有技术相比,本发明专利技术的优点是:大幅度降低对硬件配置的要求,且无需大量图片学习或采集海量信息,有效加快物体识别和提高物体识别率,还可以根据使用场景,做到动态配置。

A Model-based Image Fusion Method

【技术实现步骤摘要】
一种基于模型的图像融合方法
本专利技术涉及图像融合领域,具体涉及一种基于模型的图像融合方法。
技术介绍
一些公共场所或特定领域需要对特殊人群进行必要的筛查,这时就需要专业工作人员借助设备或仪器对特殊人群进行逐一筛查。这种筛查方式:第一效率低下,一旦人流量过大,会造成现场秩序混乱;第二成本较高,需要大量的人员和设备、仪器,造成不必要的浪费。上述领域急需一个款产品通过一种图像特征的识别与提取,从而实现自动识别异常和自动提取的功能,这样可以辅助或替代工作人员及时、高效、精确的完成筛查任务。图像局部特征提取算法研究的就是这个方向。目前基于特征的图像处理主要有两个方向,一是预先设定目标并构建模型,然后通过大量实时图像和已建模型比对,最后通过大量深度学习并发现目标。这种算法是按物理特征定义识别物体的特征,但它放弃了大量没有关联的信息,例如人脸识别时,当被检测者脸上有异物(如,黑痣)时,人脸识别照样成功;二是预先设定目标的一个或多个特征,例如颜色、纯度、纹理、形状以及表面光滑度等等,这种算法对获取图像要求十分苛刻,如光线亮度、光线颜色、图像角度、目标位置等,上述两种算法的抗干扰能力较差,应用场景局限。现在图像特征提取方法很多,但是思路基本相似的。我们以SURF算法来说明图片特征点提取过程:1>构造高斯金字塔尺度空间:首先查看图像中某个像素点的Hessian矩阵,公式如下:由于我们的特征点需要具备尺度无关性,所以在进行Hessian矩阵构造前,需要对其进行高斯滤波。经过滤波后在进行Hessian的计算,公式如下:然后在每个像素的Hessian矩阵行列式的近似值构成的特征点,公式如下:det(Happrox)=DxxDyy-mDxyDxy,其中m=0.92是SURF算法的一个经验值。2>利用非极大值抑制初步确定特征点,然后精确定位极值点:将经过Hessian矩阵处理过的每个像素点与其在三维领域的26个点进行大小比较,如果它是这26个点中的最大值或最小值,做初步的特征点保留下来;然后采用三维线性插值法得到亚像素级别的特征点,同时也去掉那些值小于一定阈值的点。3>特征点主方向的选取:通过统计特征点区域内的Harr小波特征。即在特征点的区域(比如说,半径为6s的圆内,s为该点所在的尺度)内,统计60度扇形内的水平Harr小波特征和垂直Harr小波特征总和,Harr小波的尺寸变长为4s,这样一个扇形得到了一个值。然后60度扇形以一定间隔进行旋转,最后将最大值那个扇形的方向作为该特征点的主方向。4>构造特征点描述算子:在特征点周围取一个正方形框,框的边长为20s(s是所检测到该特征点所在的尺度)。在框带方向,方向当然就是第3步检测出来的主方向了。然后把框区域分为16个子区域,每个子区域统计25个像素的水平方向和垂直方向的Harr小波特征,这里的水平和垂直方向都是相对主方向而言的。该Harr小波特征为水平方向值之和,水平方向绝对值之和,垂直方向之和,垂直方向绝对值之和。这样每个小区域就有4个值,所以每个特征点就是16*4=64维的向量。5>特征点的匹配:特征点匹配就是一个物体的识别的过程,比如两张图片是否包含相同物品或一张图片不同部分是否包含相投物品。例如两张图片A和B(A是含目标物品图片,B是被检测物品图片),通过上面四个步骤获得两张图片的特征点和特征点的描述;然后对目标描述要做的就是对特征点集合进行数据组织,形成一种特殊的表示,其作用是为了加速特征点匹配的过程(通过距离函数(例如欧式距离)在高维矢量之间进行相似性检索的),最后得出被检测图片是否含有目标图片的物品。现在图片中物品识别大多数采用图片特征提取匹配过程,先提取目标物品特征点向量集合,并存放数据库中;然后提取被检测物品特征点向量集合(可能含有其它物品),并在目标物品征点向量集合的数据库里搜索匹配,识别目标图片里物品。由于目标物品特征点向量集合是从图片里提取的,所以图片采集条件和环境要求比较严格,不然就很难提取全面或主要目标物品特征向量集合或含有很多干扰特征向量集合,会给目标物品识别带来很多干扰信息,并且会严重影响物品识别率和识别效率,目标物品特证向量集合信息量也很大,给数据存储给来压力。目前需要一种图像特征识别方法,通过预先设定模型(先定义物体,然后针对物体上的局部微小特征建立模型),与识别物体的图像进行比对,可识别出图像里是否包含定义模型中的微小特征(如:手上痣、脸上有痘等),然后选定ROI区域,通过算法得到ROI区域特征值表,再标注出一些特征定义。这种方法一方面不需要建立大量的数据模型进行深度学习和计算;另一方面它是基于定义特征的识别,更关注于识别物体的微小特征,更具有实用性和适应场景的价值。
技术实现思路
本专利技术目的是:提供一种基于模型的图像融合方法。本专利技术的技术方案是:一种基于模型的图像融合方法,包括以下步骤:步骤1:导入物体模型信息;步骤2:配置模型参数;步骤3:输入被检测图片,并通过SURF算法对被检测图片提取特征点;步骤4:对被检测图片进行MIFA方法处理。进一步的:所述步骤2中所述的配置模型参数为标准图像的形状数值范围、颜色范围值、距离范围值、以及大小比例值。进一步的:所述步骤3中所述的特征点包括被检测图像的颜色范围值、形状数值范围和位置数值。进一步的:所述MIFA方法处理包括以下步骤:步骤a:通过检测图片特征点,获取对应位置block图片属性信息,与模型参数匹配,保留与所述模型参数匹配的信息参数并筛除模型参数以外的信息参数;循环扫描全部特征点;步骤b:按照所述步骤1中所述物体模型信息配对出每组眼睛信息,并进行信息筛除;步骤c:按照所述步骤2中所述模型参数配对出每组眼睛信息,并进行信息筛除;步骤d:取出每组眼睛ROI区域,将所述步骤c与步骤b中所得的每组眼睛信息进行比对,筛选出比对结果不重合的被检测图片。与现有技术相比,本专利技术的优点是:大幅度降低对硬件配置的要求,且无需大量图片学习或采集海量信息,有效加快物体识别和提高物体识别率,还可以根据使用场景,做到动态配置。附图说明下面结合附图及实施例对本专利技术作进一步描述:图1为本专利技术的流程图;具体实施方式实施例:如图1所示的一种基于模型的图像融合方法,包括以下步骤:步骤1:导入物体模型信息;步骤2:配置模型参数,包括标准图像中的瞳孔信息、虹膜信息、巩膜信息和上下眼睑信息;瞳孔信息包括瞳孔的形状数值范围、颜色范围值、左右瞳孔距离范围值、以及瞳孔的大小比例值;虹膜信息包括虹膜的形状数值范围、颜色范围值和虹膜的大小比例值;巩膜信息包括巩膜的形状数值范围、颜色范围值和巩膜的大小比例值;上下眼睑信息包括眼睑和睫毛色彩范围值;步骤3:输入被检测图片,并通过SURF算法对被检测图片提取特征点,包括被检测图片中的瞳孔信息、虹膜信息、巩膜信息和上下眼睑信息;瞳孔信息包括瞳孔的形状数值范围、颜色范围值、左右瞳孔距离范围值、以及瞳孔的大小比例值;虹膜信息包括虹膜的形状数值范围、颜色范围值和虹膜的大小比例值;巩膜信息包括巩膜的形状数值范围、颜色范围值和巩膜的大小比例值;上下眼睑信息包括眼睑和睫毛色彩范围值;步骤4:对被检测图片进行MIFA方法处理。所述MIFA方法处理包括以下步骤:步骤a:通过检测图片本文档来自技高网
...

【技术保护点】
1.一种基于模型的图像融合方法,其特征在于:包括以下步骤:步骤1:导入物体模型信息;步骤2:配置模型参数;步骤3:输入被检测图片,并通过SURF算法对被检测图片提取特征点;步骤4:对被检测图片进行MIFA方法处理。

【技术特征摘要】
2018.10.09 CN 20181117176031.一种基于模型的图像融合方法,其特征在于:包括以下步骤:步骤1:导入物体模型信息;步骤2:配置模型参数;步骤3:输入被检测图片,并通过SURF算法对被检测图片提取特征点;步骤4:对被检测图片进行MIFA方法处理。2.根据权利要求1所述的一种基于模型的图像融合方法,其特征在于:所述步骤2中所述的配置模型参数为标准图像的形状数值范围、颜色范围值、距离范围值、以及大小比例值。3.根据权利要求1所述的一种基于模型的图像融合方法,其特征在于:所述步骤3中所述的特征点包...

【专利技术属性】
技术研发人员:丁辉
申请(专利权)人:爱诺达智能科技苏州有限公司
类型:发明
国别省市:江苏,32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1