一种空间目标图像匹配方法组成比例

技术编号:18973177 阅读:216 留言:0更新日期:2018-09-19 03:57
本发明专利技术公开了一种空间目标图像匹配方法,包括如下步骤:利用GMS匹配算法对空间目标的三视图图像进行粗匹配;引入NFA剔除误匹配点对,避免了人为设置误差阈值影响匹配点对的初步筛选准确度,使得算法的自适应性更强;采用三视图的几何约束对初步筛选匹配点对集进行二次筛选,获取最终的匹配点对。本发明专利技术针对空间目标结构自身存在纹理少、结构对称等特点,能够获得数量足够多且匹配精确的匹配点对,有效剔除误匹配点对,提高了匹配精确度。

【技术实现步骤摘要】
一种空间目标图像匹配方法
本专利技术涉及数字图像处理
,特别涉及一种空间目标图像匹配方法。
技术介绍
近年来,随着传感器技术的提升,空间目标图像的数据量也在增加;如何利用算法从空间目标图像数据中提取所需目标信息成为研究的重点。空间目标图像匹配技术,能够获取图像之间的空间位置关系,是空间目标图像拼接、空间目标三维重建等应用的基础,具有重要意义。空间目标图像匹配是一个具有挑战性的问题,目前,大多数空间目标图像匹配方法都是直接利用SIFT、ORB等经典特征描述子提取特征点,然后利用特征距离进行粗匹配,最后利用RANSAC剔除误匹配点获得最终匹配点对。由于空间目标结构自身存在如下特点:一是空间目标纹理较少,二是空间目标的结构大多呈现对称结构,导致目前大多使用经典特征描述的空间目标图像匹配算法无法获得充足的匹配点,也容易导致许多误匹配。这些经典的空间目标图像匹配算法难以满足空间目标图像匹配的应用需求。因此,提供一种对纹理少、结构对称的空间目标图像进行准确匹配的方法是本领域技术人员亟待解决的技术问题。
技术实现思路
有鉴于此,本专利技术的目的在于提供一种空间目标图像匹配方法,通过GMS匹配算法和AC-RANSAC计算获得最终估计模型,能够有效应对少纹理、大基线下的图像匹配,并且引入三视图图像几何约束算法,从而获得数量足够多且匹配精确的匹配点对。为实现上述目的其具体方案如下:一种空间目标图像匹配方法,包括如下步骤:步骤1,采集空间目标的三视图图像,即图像1、图像2、图像3,并输入计算机;所述三视图图像为连续拍摄的空间目标的三张图像,图像之间的拍摄角度角度间隔不能太大。步骤2,利用GMS匹配算法先对图像1和图像2进行粗匹配,然后对图像2和图像3进行粗匹配,得到粗匹配点对集;步骤3,利用AC-RANSAC计算获得最终估计模型,并根据所述最终估计模型剔除粗匹配点对集中的误匹配点对,得到初步筛选匹配点对集;步骤4,利用三视图图像几何约束算法对所述初步筛选匹配点对集进行二次筛选,得到最终匹配点对。本专利技术利用GMS(Grid-basedMotionStatistics)匹配算法对空间目标图像进行粗匹配,然后利用AC-RANSAC剔除误匹配点对并计算基础矩阵,最后利用三视图对匹配点对进行筛选,获取最终的匹配点对。本专利技术针对空间目标结构自身存在纹理少、结构对称等特点,能够获得数量足够多且匹配精确的匹配点对,有效剔除误匹配点对,提高了匹配精确度。优选的,所述步骤2具体包括:(1)采用GMS匹配算法分别从所述三视图图像中提取ORB特征点,先对图像1和图像2进行粗匹配,然后对图像2和图像3进行粗匹配,获取匹配点对;(2)分别将所述三视图图像划分为网格区域,若网格区域内的匹配点对的数量高于设定的匹配点对阈值,则网格区域内的匹配点对为正确匹配点对,否则为错误匹配点对,所有正确匹配点对构成粗匹配点对集。优选的,所述步骤3中AC-RANSAC具体采用误差阈值算法NFA,计算得到NFA值小于设定误差阈值的最终估计模型,其中其中n是粗匹配点对集中的所有匹配点对数目;Nsample是估计模型需要的匹配点对;k是假设的内点数目,即最终匹配点的数目;M指代利用Nsample估计出的模型;Nout是Nsample估计出的模型数目,取值为1;ek是所有匹配点在模型M下的第k小的误差值;d是误差的维度,取值为1;α0是粗匹配点对集中随机点对误差在1个像素内的概率。优选的,所述步骤4具体包括:分别获取图像1、图像2、图像3上的匹配点P1、P2、P3,其中,P1与P2、P2与P3为两对初步筛选匹配点对;计算P1在图像2中的极线一,以及P3在图像2中的极线二,得到所述极线一与所述极线二之间的交点坐标;计算所述交点坐标到P2之间的欧氏距离,选择距离值小于设定距离阈值的匹配点为内点,即最终匹配点。本专利技术公开的一种空间目标图像匹配方法,将GMS图像匹配算法引入到空间目标图像匹配,并根据空间目标自身的特殊性加入新的约束,解决了三维空间目标图像少纹理、大基线下的图像匹配精度低的问题。首先,分别对三视图图像进行GMS粗匹配,获取数量较多的粗匹配点对;然后引入NFA剔除误匹配点对,避免了人为设置误差阈值影响匹配点对的初步筛选准确度,使得算法的自适应性更强;最后采用三视图的几何约束对初步筛选匹配点对集进行二次筛选,得到数量足够多且匹配精确的最终匹配点对。附图说明为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。图1为现有技术中光学遥感图像匹配方法的流程示意图;图2为本专利技术公开的一种空间目标图像匹配方法的流程示意图;图3为本专利技术公开的一种空间目标图像匹配方法的结果对比示意图。具体实施方式下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。本专利技术公开了一种空间目标图像匹配方法,包括如下步骤:S1,采集空间目标的三视图图像,即图像1、图像2、图像3,并输入计算机;本专利技术的目标是对空间目标图像进行匹配。由于本专利技术引入了三视图的几何约束,因此本专利技术的输入图像是三幅空间目标图像,分别为空间目标不同角度的视图。三视图的角度间隔的大小取决于算法的边界条件,算法的边界条件与其适用范围和输入图像的质量、参数设置等相关。本实施例的三视图的角度间隔在25度以下。S2,利用GMS匹配算法先对图像1和图像2进行粗匹配,然后对图像2和图像3进行粗匹配,得到粗匹配点对集;具体执行过程如下:(1)采用GMS匹配算法分别从三视图图像中提取ORB特征点,先对图像1和图像2进行粗匹配,然后对图像2和图像3进行粗匹配,获取匹配点对;(2)分别将三视图图像划分为网格区域,若网格区域内的匹配点对的数量高于设定的匹配点对阈值,则网格区域内的匹配点对为正确匹配点对,否则为错误匹配点对,所有正确匹配点对构成粗匹配点对集。利用GMS进行粗匹配后,会产生大量粗匹配点对,需要进一步提取误匹配点对。S3,利用AC-RANSAC计算获得最终估计模型,并根据最终估计模型剔除粗匹配点对集中的误匹配点对,得到初步筛选匹配点对集。AC-RANSAC是RANSAC的变种,其主要作用是为了剔除误匹配点对。经典的RANSAC方法需要人为设置误差阈值,误差阈值直接影响剔除误匹配点对的效果。AC-RANSAC通过引入误差阈值算法NFA(NumberofFalseAlarms)来避免了人为设置误差阈值,使得算法的自适应性更强,其中其中n是粗匹配点对集中的所有匹配点对数目;Nsample是估计模型需要的匹配点对,这里需要估计的模型是基本矩阵(fundamentalmatrix),故而该值可以取7;k是假设的内点数目,即最终匹配点的数目;M指代利用Nsample估计出的模型;Nout是Nsample估计出的模型数目,取值为1;ek是所有匹配点在模型M下的本文档来自技高网...

【技术保护点】
1.一种空间目标图像匹配方法,其特征在于:包括如下步骤:步骤1,采集空间目标的三视图图像,即图像1、图像2、图像3,并输入计算机;步骤2,利用GMS匹配算法先对图像1和图像2进行粗匹配,然后对图像2和图像3进行粗匹配,得到粗匹配点对集;步骤3,利用AC‑RANSAC计算获得最终估计模型,并根据所述最终估计模型剔除粗匹配点对集中的误匹配点对,得到初步筛选匹配点对集;步骤4,利用三视图图像几何约束算法对所述初步筛选匹配点对集进行二次筛选,得到最终匹配点对。

【技术特征摘要】
1.一种空间目标图像匹配方法,其特征在于:包括如下步骤:步骤1,采集空间目标的三视图图像,即图像1、图像2、图像3,并输入计算机;步骤2,利用GMS匹配算法先对图像1和图像2进行粗匹配,然后对图像2和图像3进行粗匹配,得到粗匹配点对集;步骤3,利用AC-RANSAC计算获得最终估计模型,并根据所述最终估计模型剔除粗匹配点对集中的误匹配点对,得到初步筛选匹配点对集;步骤4,利用三视图图像几何约束算法对所述初步筛选匹配点对集进行二次筛选,得到最终匹配点对。2.根据权利要求1所述的一种空间目标图像匹配方法,其特征在于,所述步骤2具体包括:(1)采用GMS匹配算法分别从所述三视图图像中提取ORB特征点,先对图像1和图像2进行粗匹配,然后对图像2和图像3进行粗匹配,获取匹配点对;(2)分别将所述三视图图像划分为网格区域,若网格区域内的匹配点对的数量高于设定的匹配点对阈值,则网格区域内的匹配点对为正确匹配点对,否则为错误匹配点对,所有正确匹配点对构成粗匹配点对集。3.根据权利要求...

【专利技术属性】
技术研发人员:张浩鹏姜志国聂山岚赵丹培谢凤英
申请(专利权)人:北京航空航天大学
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1