System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于无人机图像的全景模型匹配方法及系统技术方案_技高网

一种基于无人机图像的全景模型匹配方法及系统技术方案

技术编号:40089341 阅读:6 留言:0更新日期:2024-01-23 15:57
本发明专利技术提出了一种基于无人机图像的全景模型匹配方法及系统,涉及视觉图像处理技术领域。一种基于无人机图像的全景模型匹配方法包括以下步骤:S1、使用无人机获取观测物体的全景视点,构建全景模型视图;S2、利用深度学习智能识别算法,确定观测物体带有表面损毁的视频帧中表面损毁的位置区域,并计算表面损毁的成像范围,得到识别结果;S3、将识别结果和全景模型视图相叠加,在全景模型中确定识别结果的区域范围。本申请采用无人机对物体表面损毁进行识别,能够降低物体表面损毁识别的成本,减小环境和地形对损毁识别检测的影响,构建全景模型视图和识别表面损毁的图像叠加方式简单,降低叠加难度,识别方式简单,使用成本低。

【技术实现步骤摘要】

本专利技术涉及视觉图像处理,具体而言,涉及一种基于无人机图像的全景模型匹配方法及系统


技术介绍

1、对大型建筑进行表面检测,目前,在对建筑物上存在的缺陷进行检测时,主要采用的是传统的接触式检测方法,所谓接触式检测方法即需要检测人员对缺陷进行近距离接触式检测,测量等,然而,目前一些大型建筑物,例如:桥梁、大坝等,以及特种建筑物,例如:核电站安全壳、烟囱等,往往需要对缺陷进行非接触式检测。非接触式检测一般采用相机定位,根据同一物体对象对应的不同图像之间的特征匹配来实现相机定位。同时,随着bim的不断应用,如何将bim的设计与施工现场,特别是室内机电安装的真实图像信息融合起来,实现对进度和质量的把握,成为研究热点,虽然出现了各种自动配准叠加方法,但方法较为复杂,不能满足现场应用要求。


技术实现思路

1、本专利技术的目的在于提供一种基于无人机图像的全景模型匹配方法,其能够提高检测效率,降低特征匹配的难度,受环境影响小。

2、本专利技术是这样实现的:

3、第一方面,本申请提供一种基于无人机图像的全景模型匹配方法,包括以下步骤:

4、s1、使用无人机获取观测物体的全景视点,构建全景模型视图;

5、s2、利用深度学习智能识别算法,确定观测物体带有表面损毁的视频帧中表面损毁的位置区域,并计算表面损毁的成像范围,得到识别结果;

6、s3、将识别结果和全景模型视图相叠加,在全景模型中确定识别结果的区域范围。

7、进一步的,步骤s1包括以下步骤:

8、步骤s1包括以下步骤:

9、s1-1、使用场景构建无人机按照设定的路线拍摄观测物体;

10、s1-2、获取当前场景视图的全景视点,并设置当前场景视图的全景视点在地面坐标系的空间位置为s1(x1,y1,z1);相邻的全景视点在地面坐标系的空间位置为s2(x2,y2,z2);

11、s1-3、计算视点s1和视点s2的地面坐标系的坐标差值(δx,δy,δz);

12、s1-4、根据公式:

13、

14、得到当前全景视点和相邻全景视点的水平方位角α和高程俯仰角θ;

15、s1-5、根据公式:

16、

17、得到相邻全景视点在当前场景视图中的水平方位、垂直方位坐标(α',θ');其中,当前场景视图中心点所在的正北向纵轴之间的角度偏移量为δα;

18、s1-6、根据公式:

19、

20、得到相邻视点在全景图中的像素高度值y,其中:当前场景视图的高为h;

21、s1-7、根据公式:

22、

23、得到相邻全景视点在当前场景视图中的像素坐标(i,j);其中,当前场景视图的宽为w;左上角图像的像素坐标是(0,0),右下角坐标为(w,h);

24、s1-8、根据相邻全景视点在当前场景视图中的像素坐标(i,j)将相邻全景视点映射到当前场景视图;

25、s1-9、重复步骤s1-1至步骤s1-8直到完成所有全景视点的映射,得到全景模型视图。

26、进一步的,步骤s2包括以下步骤:

27、s2-1、使用无人机沿场景构建的无人机拍摄全景模型的路线进行拍摄,得到观测物体表面损毁检测视频;

28、s2-2、使用深度学习智能算法确定每个损毁在对应的视频帧的位置;输出检测结果;其中,检测结果包括表面损毁在检测视频帧的区域范围、视频帧的编号、表面损毁类型、表面损毁截图和表面损毁的像素坐标;

29、s2-3、根据公式:

30、

31、得到检测结果的瞬时视场范围角θ1;其中,w1为无人机的传感器的宽;h1为无人机的传感器的高;f1为无人机成像的焦距;

32、s2-4、根据检测结果的瞬时视场范围角θ1和检测结果计算表面损毁的成像范围,得到识别结果。

33、进一步的,s3包括以下步骤:

34、s3-1、根据识别结果获取视频帧所在的相机拍摄位置s、成像姿态和检测结果;

35、s3-2、搜索相机拍摄位置s的最接近的全景视点位置s’;并将全景视点位置s’作为检测结果所在的视频帧拍摄时的相机位置;

36、s3-3、获取视频帧拍摄方向,确定视频帧在全景视点位置所在的全景模型视图中的位置;

37、s3-4、根据视频帧在全景视点位置拍摄的全景图中的位置确定识别结果在全景模型视图中的位置。

38、进一步的,步骤s3-3包括以下步骤:

39、s3-3-1、获取视频帧拍摄信息,包括相机的镜头位置和姿态其中,(xs,ys,zs)为相机在地面坐标系的坐标;为视频帧拍摄时相机姿态的翻滚角φ、俯仰角ω、偏航角κ;

40、s3-3-2、计算识别结果的方位矢量,得到观测向量l;

41、s3-3-3、计算观测向量l的坐标分量了δx2、δy2、δz2,根据坐标分量在全景场景中的投影点位置(α2,θ2);

42、s3-3-4、根据投影点位置(α2,θ2)得到全景模型视图投影点坐标(α',θ');

43、s3-3-5、按照步骤s3-3-4同样的方法确定识别结果的4个坐标角点对应的成像光线,确定识别结果在全景模型视图中的区域范围。

44、进一步的,观测向量l包括以下步骤:

45、以识别结果所在视频帧的拍摄位置为原点,构建像空坐标系;

46、根据公式:

47、

48、得到锚框角点在像空系坐标系中的坐标l(x,y,-f);其中,δs为像元的大小;(m,n)为锚框角点在视频帧中的像素坐标;f为相机焦距;

49、根据公式:

50、

51、

52、得到观测向量l。

53、第二方面,本申请提供一种基于无人机图像的全景模型匹配系统,包括全景模型视图构建模块、表面损毁识别模块和识别叠加模块;

54、全景模型视图构建模块,用于使用无人机获取观测物体的全景视点,构建全景模型视图;

55、表面损毁识别模块,用于利用深度学习智能识别算法,确定观测物体带有表面损毁的视频帧中表面损毁的位置区域,并计算表面损毁的成像范围,得到识别结果;

56、识别叠加模块,用于将识别结果和全景模型视图相叠加,在全景模型中确定识别结果的区域范围。

57、第三方面,本申请提供一种电子设备,其包括存储器,用于存储一个或多个程序;处理器;当上述一个或多个程序被上述处理器执行时,实现如上述第一方面中任一项所述的方法。

58、相对于现有技术,本专利技术至少具有如下优点或有益效果:

59、本专利技术提出了一种基于无人机图像的全景模型匹配方法及系统,采用无人机对物体表面损毁进行识别,能够降低物体表面损毁识别的成本,减小环境和地形对损毁识别检测的影响,构建全景模型视图和本文档来自技高网...

【技术保护点】

1.一种基于无人机图像的全景模型匹配方法,其特征在于,包括以下步骤:

2.如权利要求1所述的一种基于无人机图像的全景模型匹配方法,其特征在于,所述步骤S1包括以下步骤:

3.如权利要求1所述的一种基于无人机图像的全景模型匹配方法,其特征在于,所述步骤S2包括以下步骤:

4.如权利要求1所述的一种基于无人机图像的全景模型匹配方法,其特征在于,步骤S3包括以下步骤:

5.如权利要求4所述的一种基于无人机图像的全景模型匹配方法,其特征在于,所述步骤S3-3包括以下步骤:

6.如权利要求5所述的一种基于无人机图像的全景模型匹配方法,其特征在于,得到观测向量L包括以下步骤:

7.一种基于无人机图像的全景模型匹配系统,应用于权利要求1至权利要求6任意一项所述的一种基于无人机图像的全景模型匹配方法,其特征在于,包括全景模型视图构建模块、表面损毁识别模块和识别叠加模块;

8.一种电子设备,其特征在于,包括:

【技术特征摘要】

1.一种基于无人机图像的全景模型匹配方法,其特征在于,包括以下步骤:

2.如权利要求1所述的一种基于无人机图像的全景模型匹配方法,其特征在于,所述步骤s1包括以下步骤:

3.如权利要求1所述的一种基于无人机图像的全景模型匹配方法,其特征在于,所述步骤s2包括以下步骤:

4.如权利要求1所述的一种基于无人机图像的全景模型匹配方法,其特征在于,步骤s3包括以下步骤:

5.如权利要求4所述的一种基于...

【专利技术属性】
技术研发人员:罗胜陈杰
申请(专利权)人:瑞测江苏空间信息技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1