一种基于双轴云台机器人与双目视觉的高精度火源空间定位方法技术

技术编号:34565940 阅读:16 留言:0更新日期:2022-08-17 12:55
本发明专利技术公开了一种基于双轴云台机器人与双目视觉的高精度火源空间定位方法,S1、获取机器人上的双目相机在不同状态下对火源的多组拍摄图像;S2、对每组拍摄图像均进行双目视觉定位,计算每组拍摄图像中的火源的三维信息,火源的三维信息包括平面位置信息和深度信息;S3、根据所计算的多组火源的三维信息,取多组平面位置信息的中心作为火源的最终平面位置信息,取多组深度信息的均值作为火源的最终深度信息。本发明专利技术所提出的方法,火源定位精度高,时间成本低,能够在复杂环境中实现以非接触式的方式定位火源。触式的方式定位火源。触式的方式定位火源。

【技术实现步骤摘要】
一种基于双轴云台机器人与双目视觉的高精度火源空间定位方法


[0001]本专利技术涉及计算机视觉
,具体地说是一种基于双轴云台机器人与双目视觉的高精度火源空间定位方法。

技术介绍

[0002]在火灾发生初期,对火源进行探测、预警以及定位可以有效地保障人员的安全,避免财产损失。随着科技的不断进步,现有方法对火灾的发生已经具备一定的主动监控和预防能力。但以接触式传感器为核心的传统火源定位方法精度不高,并且在恶劣环境下会因环境限制和干扰而无法对火源进行有效定位,存在漏定、误定等问题;其次,现存一些基于图像处理的火源定位方法虽然改善了上述基于传感器的火源定位方法的不足,但此类方法无法计算出火源图像中的深度信息,即对于火源的三维空间信息无法得知;此外,基于图像处理的火源定位方法时间成本较高,无法满足在实际应用场景中对实时性的要求。
[0003]综上所述,现有火源定位方法的主要缺点如下:1)定位精度不高,存在漏定、误定等问题;2)实时性低,定位火源所需要的时间成本太高从而会导致更大的经济损失;3)丢失了火源图像的三维空间信息,即火源图像中的深度信息。

技术实现思路

[0004]本专利技术的目的是针对以上不足,提供一种基于双轴云台机器人与双目视觉的高精度火源空间定位方法,实现对火源的三维空间定位,提高了火灾预防能力。
[0005]本专利技术所采用技术方案是:
[0006]一种基于双轴云台机器人与双目视觉的高精度火源空间定位方法,包括如下步骤:
[0007]S1、获取机器人上的双目相机在不同状态下对火源的多组拍摄图像;
[0008]S2、对每组拍摄图像均进行双目视觉定位,计算每组拍摄图像中的火源的三维信息,火源的三维信息包括平面位置信息和深度信息;
[0009]S3、根据所计算的多组火源的三维信息,取多组平面位置信息的中心作为火源的最终平面位置信息,取多组深度信息的均值作为火源的最终深度信息。
[0010]作为进一步的优化,本专利技术步骤S1中,通过调整双轴云台机器人的平面转动云台和仰角云台来调整双目相机的状态,并在每种状态下完成对火源的双目拍摄。
[0011]作为进一步的优化,本专利技术在步骤S1之前,当双轴云台机器人监测到火源时,向火源移动,当在一帧图像中被分割的火源目标所占像素大于50个时停止移动,并在步骤S1对火源拍摄的过程中,双轴云台机器人的位置不再发生变化。
[0012]作为进一步的优化,本专利技术在步骤S1之前,还需要通过张正友标定法对双目相机进行相机标定,获取相机的相机参数,所述相机参数包括内部参数和外部参数,所述内部参数包括焦距、图像中心和畸变系数,所述外部参数包括旋转矩阵和平移矩阵。
[0013]作为进一步的优化,本专利技术所述双目相机的相机标定的过程包括如下步骤:
[0014]S211、左目相机标定,获取左目相机的相机参数;
[0015]S212、右目相机标定,获取右目相机的相机参数;
[0016]S2013、双目标定,获取左目相机和右目相机之间的平移旋转关系。
[0017]作为进一步的优化,本专利技术步骤S2中,对每组拍摄图像进行双目视觉定位的过程包括:
[0018]S21、双目校正;
[0019]S22、双目视觉匹配;
[0020]S23、计算视差图;
[0021]S24、计算深度信息。
[0022]作为进一步的优化,本专利技术步骤S21中,采用极线矫正法对左目图像和右目图像进行畸变校正。
[0023]作为进一步的优化,本专利技术步骤S22中,在进行双目视觉匹配时采用归一化互相关匹配算法进行左目图像和右目图像的匹配,设定校正后的左目图像和右目图像分别为I
L
、I
R
,归一化互相关匹配算法对图像I
L
中其中一个待匹配像素构建一个n*n的匹配窗口,在图像I
R
极线上对每一个像素构建匹配窗口与待匹配像素匹配窗口计算相关性,相关性最高的视为最优匹配,计算相关性的计算公式如下:
[0024][0025]其中:u1、u2分别为图像I
L
、I
R
匹配窗口的像素均值;
[0026]归一化互相关匹配算法的匹配流程是通过在同一行中查找最优匹配,多行像素之间并行处理。
[0027]作为进一步的优化,本专利技术步骤S23中,所述计算视差图的过程为将左目图像中的待测像素水平坐标与右目图像中的匹配像素水平坐标之间计算差值,然后统筹每个匹配像素的视差得到视差图。
[0028]作为进一步的优化,本专利技术步骤S24中,通过将上述步骤中分别得到的焦距、极线和视差图数据,利用三角计算得到火源在世界坐标系中的深度信息,该深度信息即为火源距离双轴云台机器人的距离信息。
[0029]本专利技术具有以下优点:
[0030]1、本专利技术在传统火源定位方法的基础上,将双轴云台机器人和双目视觉定位有效结合,使得火源定位不再受二维空间的限制,可以计算出火源的三维位置信息;相比其他定位方法,本专利技术利用双轴云台机器人多次调整双目相机的方位、仰角,多次计算火源三维位置信息从而得到高精度的火源三维位置信息,能够有效在火灾初期定位火源预防火灾的发生;同时,该专利技术受周围环境的影响较小,可以自主在实际场景中移动,一定程度上解决了火灾定位设备部署困难的问题;此外,本专利技术也可以满足实际场景中对火源定位实时性的要求;
[0031]2、本专利技术所提出的方法,火源定位精度高,时间成本低,能够在复杂环境中实现以非接触式的方式定位火源。
附图说明
[0032]为了更清楚地说明本专利技术实施例中的技术方案,下面将对实施例中描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0033]下面结合附图对本专利技术进一步说明:
[0034]图1为本专利技术的方法的流程示意图;
[0035]图2为双目相机成像的原理图;
[0036]图3为双轴云台机器人的正视图;
[0037]图4为定位火源平面位置的示意图。
[0038]其中:1、左目相机,2、右目相机,3、水平转动云台,4、仰角云台。
具体实施方式
[0039]下面结合附图和具体实施例对本专利技术作进一步说明,以使本领域的技术人员可以更好地理解本专利技术并能予以实施,但所举实施例不作为对本专利技术的限定,在不冲突的情况下,本专利技术实施例以及实施例中的技术特征可以相互结合。
[0040]需要理解的是,在本专利技术实施例的描述中,“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。在本专利技术实施例中的“多个”,是指两个或两个以上。
[0041]本专利技术实施例中的属于“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于双轴云台机器人与双目视觉的高精度火源空间定位方法,其特征在于:包括如下步骤:S1、获取机器人上的双目相机在不同状态下对火源的多组拍摄图像;S2、对每组拍摄图像均进行双目视觉定位,计算每组拍摄图像中的火源的三维信息,火源的三维信息包括平面位置信息和深度信息;S3、根据所计算的多组火源的三维信息,取多组平面位置信息的中心作为火源的最终平面位置信息,取多组深度信息的均值作为火源的最终深度信息。2.根据权利要求1所述的方法,其特征在于:步骤S1中,通过调整双轴云台机器人的平面转动云台和仰角云台来调整双目相机的状态,并在每种状态下完成对火源的双目拍摄。3.根据权利要求1所述的方法,其特征在于:在步骤S1之前,当双轴云台机器人监测到火源时,向火源移动,当在一帧图像中被分割的火源目标所占像素大于50个时停止移动,并在步骤S1对火源拍摄的过程中,双轴云台机器人的位置不再发生变化。4.根据权利要求1所述的方法,其特征在于:在步骤S1之前,还需要通过张正友标定法对双目相机进行相机标定,获取相机的相机参数,所述相机参数包括内部参数和外部参数,所述内部参数包括焦距、图像中心和畸变系数,所述外部参数包括旋转矩阵和平移矩阵。5.根据权利要求4所述的方法,其特征在于:所述双目相机的相机标定的过程包括如下步骤:S211、左目相机标定,获取左目相机的相机参数;S212、右目相机标定,获取右目相机的相机参数;S2013、双目标定,获取左目相机和右目相机之间的平移旋转关系。6.根据权利要求4所述的方法,其特征在于:步骤S2中,对每...

【专利技术属性】
技术研发人员:殷利建麻瑞刘庆喜殷利庆马宗方张国飞孙士齐李志文
申请(专利权)人:西安建筑科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1