一种面向无人机自主定位的空间场景检索方法技术

技术编号:36048418 阅读:10 留言:0更新日期:2022-12-21 10:57
本发明专利技术属于空间数据检索领域,实现一种面向无人机自主定位的空间场景检索方法,该方法在无人机图像上提取出空间对象轮廓,并将空间对象按照类型和是否处于边缘进行重排序,并筛选出初始匹配空间对象,然后计算所有空间对象与初始匹配空间对象的矢量空间距离,并作为空间对象匹配的条件;在空间检索过程中,依据空间距离关系对底图进行裁剪以缩小检索空间范围;最后匹配成功数最多的空间对象即为初始匹配空间对象的对应斑块。本发明专利技术相较于传统的空间检索方法,使用空间对象的矢量空间距离刻画空间关系,而不使用斑块相似性考虑匹配成功度,对于无人机图像的几何畸变、空间对象的边缘不准确等问题有更大的容错空间,且检索效率更高。更高。更高。

【技术实现步骤摘要】
一种面向无人机自主定位的空间场景检索方法


[0001]本专利技术属于空间数据检索领域,特别涉及一种面向无人机自主定位的空间场景检索方法,用于实现在大范围矢量地图中检索出无人机图像对应的小场景,并最终为无人机自主定位提供位置数据。

技术介绍

[0002]空间场景是一组地理对象及其空间关系—拓扑、距离和方向关系的集合。空间对象一般为面状对象,其形成的空间场景可表示为由多边形集组成的空间场景,如湖泊、建筑物、操场等具有面积、类型的地理对象。空间场景匹配可用于碎片场景定位、手描场景导航等,在日常生活、科学研究中都可以发挥重大作用。基于语义地图的无人机自主定位一般使用的语义信息包括轮廓、操场、水体、道路、草地、林地等面状地物,无人机图像中的语义信息斑块构建成了一个空间场景;空间场景检索方法可以从大范围底图中检索出对应无人机图像地理位置的场景,为无人机自主定位提供位置数据。
[0003]当前主流的空间场景检索方法为基于形状和空间关系的检索方法,具体如下:(1)空间对象形状特征描述和匹配;(2)空间拓扑关系描述和检索;(3)空间方位关系描述与检索;(4)空间场景相似性检索。但面对无人机自主定位的城市内空间场景匹配时,无人机图像形变较为严重,空间对象间的空间关系产生畸变,使用现有方法进行空间场景匹配时存在以下问题:(1)由于底图场景很大,存在大量形状相似的建筑,在空间对象匹配时,会导致真正匹配的空间对象淹没在大量误匹配的空间对象中;(2)大量误匹配的空间对象会导致空间拓扑和方位关系检索时搜索空间过大,匹配效率极低;(3)空间场景相似性检索时同时考虑几何相似性、拓扑相似性和方位相似性,检索条件严格,导致匹配失败率高。
[0004]面向无人机自主定位中的语义匹配需求,提高空间场景的匹配效率,并解决无人机图像形变导致的场景中空间关系畸变,本专利技术提出了一种面向无人机自主定位的空间场景检索方法。

技术实现思路

[0005]本专利技术的目的在于解决基于语义地图的无人机自主定位中的场景匹配问题,提出了一种面向无人机自主定位的空间场景检索方法,利用场景中的空间对象的矢量距离进行空间对象匹配,解决无人机图像形变导致的场景空间关系畸变问题,提高空间场景匹配效率和精度。
[0006]为了实现上述目的,本专利技术采用的技术方案如下:一种面向无人机自主定位的空间场景检索方法,包括以下步骤:(1)利用深度学习语义分割和实例分割算法在无人机图像上提取目标轮廓,包括建筑单体轮廓、水体轮廓和操场轮廓,提取的每个目标形成一个空间对象,并以图像像素坐标串来表示对应的多边形;(2)遍历空间对象,选出距离原始无人机图像边界距离大于设定值且类型数量占
比不超过设定阈值的空间对象,作为初始匹配空间对象;(3)以初始匹配空间对象为中心斑块,分别计算其它每个空间对象与中心斑块的欧氏距离,找出最大值和最小值,确定以中心斑块为中心的场景区域范围;(4)将底图场景和无人机图像中的空间对象进行匹配,通过遍历底图场景中的空间对象,以空间对象类型的一致性和与邻域空间对象的距离和方位关系累计匹配成功数,匹配成功数最高的空间对象即为中心斑块对应的对象,并得出其它空间对象的匹配结果。
[0007]其中,步骤(2)具体包括以下步骤:(201)遍历空间对象,从中选择一个空间对象,判断所选空间对象的坐标串在X、Y方向距离原始无人机图像边界的最小值,若最小值小于设定阈值M,则认为对应的空间对象处于场景边缘,不作为初始匹配空间对象;否则,将对应的空间对象置为初始匹配空间对象;(202)然后判断初始匹配空间对象的类型数量占比是否超过设定阈值N,若不超过,则遍历停止;否则,返回步骤(201)继续遍历,重新选择一个空间对象。
[0008]其中,步骤(3)具体包括以下过程:以初始匹配空间对象为中心斑块C,中心坐标为,分别计算其它每个空间对象的重心与中心斑块的重心间的欧氏距离,分别找出和的最大值和最小值,确定以中心斑块C为中心的场景区域范围;其中,为中心斑块C在X、Y方向的坐标,为空间对象与中心斑块C的矢量空间距离,分别代表X方向和Y方向的矢量空间距离,取值范围为。
[0009]其中,步骤(4)具体包括以下步骤:(401)遍历底图场景中的空间对象,判断与中心斑块C的类型是否一致,若不一致,则,继续遍历,若一致,则假设为中心斑块对应的空间对象,然后进行下一步;其中为空间对象在X、Y方向的坐标,初始值为1;(402)在底图场景中,按照、、和组成的矩形R进行空间裁剪,即筛选出被矩形R包含或相交的空间对象,形成临时空间对象集;(403)遍历无人机图像上的空间对象,对于空间对象,判断虚拟点是否位于临时空间对象集的某个空间对象内,若是,则匹配成功数加1,且记录下匹配成功的空间对象ID;返回步骤(401),直至遍历完底图场景中的空间对象;(404)匹配成功数最高时对应的底图场景中的空间对象即中心斑块C匹配成功的空间对象,且无人机图像中的每个空间对象都检索到了对应的空间对象。
[0010]本专利技术与
技术介绍
相比具有如下优点:1. 本专利技术提出的一种面向无人机自主定位的空间场景检索方法不进行斑块形状
相似性判断,避免了在整个城市内存在大量相似性高的斑块(尤其是建筑轮廓)时导致的空间场景检索时搜索空间过大的问题,最大程度减少了误匹配,提高了检索效率。
[0011]2. 本专利技术提出的一种面向无人机自主定位的空间场景检索方法,以空间对象重心的矢量欧式距离来刻画其空间关系,对空间对象的形状有一定程度的偏差容忍,对于无人机图像存在的几何畸变、无人机图像漏检空间对象及空间对象边缘不准确时仍然有效。
[0012]3. 本专利技术提出的一种面向无人机自主定位的空间场景检索方法,在空间场景检索时,不在底图全局空间中进行检索,而是利用空间距离关系进行底图裁剪,极大地提高了检索效率。
附图说明
[0013]图1是本专利技术一种面向无人机自主定位的空间场景检索方法原理图。
[0014]图2是本专利技术高分辨率卫星图像,用于仿真无人机图像。
[0015]图3是本专利技术某地级市的局部匹配底图。
[0016]图4是本专利技术空间场景检索结果图。
具体实施方式
[0017]下面结合附图对本专利技术的具体实施方式进行描述,以便本领域的技术人员更好地理解本专利技术。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本专利技术的主要内容时,这些描述在这里将被忽略。
[0018]图1是本专利技术一种面向无人机自主定位的空间场景检索方法原理图。具体来说,该方法包括以下步骤:(1)场景内空间对象提取。利用深度学习语义分割和实例分割算法在无人机图像上提取建筑单体轮廓、水体轮廓、操场轮廓等,每个目标形成一个空间对象,并以图像像素坐标串来表示其对应的多边形;(2)空间对象重排序。为了保证初始匹配的空间对象在地理坐标上对齐,且空间对象所属类型在底图上数量较少,对空间对象进行重新排序:遍历空间对象,选出距离原始无人机图像边界距离大于设定值且类型数量占比不超过设定阈值的空间对象,作为本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种面向无人机自主定位的空间场景检索方法,其特征在于,包括以下步骤:步骤1,利用深度学习语义分割和实例分割算法在无人机图像上提取目标轮廓,包括建筑单体轮廓、水体轮廓和操场轮廓,提取的每个目标形成一个空间对象,并以图像像素坐标串来表示对应的多边形;步骤2,遍历空间对象,选出距离原始无人机图像边界距离大于设定值且类型数量占比不超过设定阈值的空间对象,作为初始匹配空间对象;步骤3,以初始匹配空间对象为中心斑块,分别计算其它每个空间对象与中心斑块的欧氏距离,找出最大值和最小值,确定以中心斑块为中心的场景区域范围;步骤4,将底图场景和无人机图像中的空间对象进行匹配,通过遍历底图场景中的空间对象,以空间对象类型的一致性和与邻域空间对象的距离和方位关系累计匹配成功数,匹配成功数最高的空间对象即为中心斑块对应的对象,并得出其它空间对象的匹配结果。2.根据权利要求1所述的面向无人机自主定位的空间场景检索方法,其特征在于,步骤2具体包括以下步骤:步骤201,遍历空间对象,从中选择一个空间对象,判断所选空间对象的坐标串在X、Y方向距离原始无人机图像边界的最小值,若最小值小于设定阈值M,则认为对应的空间对象处于场景边缘,不作为初始匹配空间对象;否则,将对应的空间对象置为初始匹配空间对象;步骤202,然后判断初始匹配空间对象的类型数量占比是否超过设定阈值N,若不超过,则遍历停止;否则,返回步骤201继续遍历,...

【专利技术属性】
技术研发人员:刘宇耿虎军王港武晓博孙方德
申请(专利权)人:中国电子科技集团公司第五十四研究所
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1