当前位置: 首页 > 专利查询>山东大学专利>正文

一种小型四足机器人全局视觉定位方法和系统技术方案

技术编号:21345186 阅读:22 留言:0更新日期:2019-06-13 23:06
本发明专利技术公开了一种小型四足机器人全局视觉定位方法和系统,该方法包括以下步骤:标定双摄像头系统,计算双摄像头系统运动模型参数;获取标定好的鱼眼摄像头拍摄的目标区域图像;对目标区域图像进行处理,得到待定位目标在鱼眼摄像头坐标系中的位置,通过双摄像头系统运动学模型计算待定位目标在云台坐标系中的空间位置,并进行二自由度运动学反解,得到二自由度关节转角;获取待定位目标图像,并对待定位目标图像中的二维码进行检测,得到二维码中心点在待定位图像中的二维坐标,经过变换得到二维码中心点在地面坐标系中二维坐标;对二维码中心点在地面坐标系中二维坐标进行校正,得到待定位目标在地面坐标系中的位置和朝向。

【技术实现步骤摘要】
一种小型四足机器人全局视觉定位方法和系统
本公开涉及一种小型四足机器人全局视觉定位方法和系统。
技术介绍
移动机器人是机器人家族的重要成员,在军事对抗、农业工作、工业生产、安防巡检等领域都有重要应用。而移动机器人的定位和导航是实现机器人智能化自主化的关键技术,是机器人自身设计功能正常运作的基础。实现移动机器人自主导航,首先要解决机器人的定位定姿问题,即确定移动机器人的位置、朝向等。在定位定姿方法中,视觉定位应用较为广泛。视觉定位与导航获取的信息丰富,应用灵活,视觉传感器被动接受能量,系统能耗低,且易于隐蔽,因此成为移动机器人导航的一个重要研究方向。全局视觉通过架设在高处的摄像头,对机器人及其环境进行全局观测。在全局视觉定位导航过程中,有时既需要宽广的观察视野,对机器人周围大范围内的环境信息进行观测,规划可行路径,又需要能对某一局部细节进行清晰的观测,根据机器人本体的细节特征进行定位定姿,在多机协同问题中区分不同个体。专利技术人在研发过程中发现,由于单一摄像机覆盖范围有限,增加全局相机高度可以扩大视野,但是目标在图像中会变小变模糊,观测视野范围和细节高清晰度很难兼顾。
技术实现思路
为了克服上述现有技术的不足,本公开提供了一种小型四足机器人全局视觉定位方法和系统,扩大了全局视觉定位的有效范围,提高了大视野环境中的定位精度,解决了全局视觉观测范围有限的问题。本公开所采用的技术方案是:一种四足机器人全局视觉定位方法,该方法包括以下步骤:标定由鱼眼摄像头和长焦摄像头组成的双摄像头系统,搭建双摄像头系统运动模型,计算双摄像头系统运动模型参数;获取标定好的鱼眼摄像头拍摄的目标区域图像;利用基于核函数加权的粒子滤波算法对所述目标区域图像进行处理,得到待定位目标在图像上的位置数据;将待定位目标的位置数据经过变换得到待定位目标在鱼眼摄像头坐标系中的位置,通过双摄像头系统运动学模型计算待定位目标在云台坐标系中的空间位置,并进行二自由度运动学反解,得到二自由度关节转角;获取根据二自由度关节转角控制标定好的长焦摄像头拍摄的待定位目标的放大图像,并对待定位目标放大图像中的二维码进行检测,得到二维码中心点在待定位目标放大图像中的二维坐标;经过变换得到二维码中心点在地面坐标系中二维坐标;对二维码中心点在地面坐标系中二维坐标进行校正,得到待定位目标在地面坐标系中的位置和朝向。一种四足机器人全局视觉定位系统,该系统包括:双摄像头系统,用于拍摄待定位目标所在的目标区域图像以及待定位目标图像;处理器,用于标定由鱼眼摄像头和长焦摄像头组成的双摄像头系统,搭建双摄像头系统运动模型,计算双摄像头系统运动模型参数;获取标定好的鱼眼摄像头拍摄的目标区域图像;利用基于核函数加权的粒子滤波算法对所述目标区域图像进行处理,得到待定位目标在图像上的位置数据;将待定位目标的位置数据经过变换得到待定位目标在鱼眼摄像头坐标系中的位置,通过双摄像头系统运动学模型计算待定位目标在云台坐标系中的空间位置,并进行二自由度运动学反解,得到二自由度关节转角;获取根据二自由度关节转角控制标定好的长焦摄像头拍摄的待定位目标图像,并对待定位目标图像中的二维码进行检测,得到二维码中心点在待定位图像中的二维坐标;经过变换得到二维码中心点在地面坐标系中二维坐标;对二维码中心点在地面坐标系中二维坐标进行校正,得到待定位目标上的二维码中心在地面坐标系中的三维空间坐标。通过上述的技术方案,本公开的有益效果是:(1)本公开解决了全局视觉定位导航过程中存在的增大观测视野导致目标细节模糊的问题,通过双摄像头分工配合,将观测范围与观测精度解耦,能够在大视野观测的同时进行高精度的细节观测;(2)本公开扩大了全局视觉定位的有效范围,提高了大视野环境中的定位精度,解决了全局视觉观测范围有限的问题;(3)本公开具备较好的扩展性,通过提高系统安装高度和换装更长焦距的长焦摄像头,可以进一步扩展观测视野,提高定位精度;(4)本公开结构简单,应用灵活,使用两个普通高清摄像头即可达到极强的细节分辨率;(5)本公开不仅可以应用于大场景下移动目标的定位导航、多机协作、全局视觉指导下腿足机器人复杂地形的自动通过等研究领域,也可以应用于道路监控、军事侦察等特殊领域。附图说明构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。图1是根据一种或多种实施方式的小型四足机器人全局视觉定位方法流程图;图2是根据一种或多种实施方式的双摄像头系统运动模型示意图一;图3是根据一种或多种实施方式的双摄像头系统运动模型参数标定示意图;图4是根据一种或多种实施方式的旋转标定模型示意图;图5是根据一种或多种实施方式的云台运动学反解模型;图6是根据一种或多种实施方式的二维码检测过程流程图;图7是根据一种或多种实施方式的二维码中心坐标与朝向示意图;图8是根据一种或多种实施方式的双摄像头系统运动模型示意图二;图9是根据一种或多种实施方式的机器人站立状态示意图。图10是根据一种或多种实施方式的双摄像头系统结构图。具体实施方式应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属
的普通技术人员通常理解的相同含义。需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。一种或多种实施例提供了一种小型四足机器人全局视觉定位方法,获取目标区域内大范围场景图像,采用基于检测核函数加权RGB颜色直方图的粒子滤波算法对目标区域图像进行处理,得到目标区域内四足机器人跟踪结果,根据目标跟踪结果采集四足机器人的图像,通过轮廓检测算法对采集的图像进行处理,检测出四足机器人背部粘贴的二维码,识别二维码中心和朝向,通过系统坐标转换与空间位置关系,实时计算四足机器人在地面上的位置与朝向。请参阅附图1,该小型四足机器人全局视觉定位方法包括以下步骤:S101,标定双摄像头系统内短焦鱼眼摄像头和长焦摄像头,并利用标定好的短焦鱼眼镜头采集大范围目标区域图像。在本实施例中,采用苏黎世大学DavideScaramuzza编写的OCamCalib全视角相机模型标定矫正工具对短焦鱼眼摄像头进行标定。具有地,标定短焦鱼眼摄像头的具体实现方式如下:设ρ为入射光线在图像上的成像点(u,v)与图像主点(0,0)之间的距离,入射光线方向向量为[X,Y,Z]T,按照正交模型,入射光线方向向量与在图像上的成像点坐标(u,v)之间的关系为:入射光线的入射角与其像点到光轴像点间的距离ρ有关,因此F是关于ρ的函数。可对F进行泰勒展开,写成一般形式并取4次幂,即F=f(ρ)=a0+a1ρ+a2ρ2+a3ρ3+a4ρ4(2)其中通过OcamCalib工具对鱼眼摄像头进行标定,获取多项式系数a0、…、a4的值。在本实施例中,使用Matlab相机标定工具标定长焦摄像头内参数矩阵M,获取长焦摄像头的镜头焦距f、图像主点坐标(u0,v本文档来自技高网
...

【技术保护点】
1.一种四足机器人全局视觉定位方法,其特征是,包括以下步骤:标定由鱼眼摄像头和长焦摄像头组成的双摄像头系统,搭建双摄像头系统运动模型,计算双摄像头系统运动模型参数;获取标定好的鱼眼摄像头拍摄的目标区域图像;利用基于核函数加权的粒子滤波算法对所述目标区域图像进行处理,得到待定位目标在图像上的位置数据;将待定位目标的位置数据经过变换得到待定位目标在鱼眼摄像头坐标系中的位置,通过双摄像头系统运动学模型计算待定位目标在云台坐标系中的空间位置,并进行二自由度运动学反解,得到二自由度关节转角;获取根据二自由度关节转角控制标定好的长焦摄像头拍摄的待定位目标的放大图像,并对待定位目标放大图像中的二维码进行检测,得到二维码中心点在待定位目标放大图像中的二维坐标;经过变换得到二维码中心点在地面坐标系中二维坐标;对二维码中心点在地面坐标系中二维坐标进行校正,得到待定位目标在地面坐标系中的位置和朝向。

【技术特征摘要】
1.一种四足机器人全局视觉定位方法,其特征是,包括以下步骤:标定由鱼眼摄像头和长焦摄像头组成的双摄像头系统,搭建双摄像头系统运动模型,计算双摄像头系统运动模型参数;获取标定好的鱼眼摄像头拍摄的目标区域图像;利用基于核函数加权的粒子滤波算法对所述目标区域图像进行处理,得到待定位目标在图像上的位置数据;将待定位目标的位置数据经过变换得到待定位目标在鱼眼摄像头坐标系中的位置,通过双摄像头系统运动学模型计算待定位目标在云台坐标系中的空间位置,并进行二自由度运动学反解,得到二自由度关节转角;获取根据二自由度关节转角控制标定好的长焦摄像头拍摄的待定位目标的放大图像,并对待定位目标放大图像中的二维码进行检测,得到二维码中心点在待定位目标放大图像中的二维坐标;经过变换得到二维码中心点在地面坐标系中二维坐标;对二维码中心点在地面坐标系中二维坐标进行校正,得到待定位目标在地面坐标系中的位置和朝向。2.根据权利要求1所述的四足机器人全局视觉定位方法,其特征是,所述双摄像头系统运动模型包括云台坐标系、鱼眼摄像头坐标系和长焦摄像头坐标系;计算双摄像头系统运动模型参数的步骤包括:以两个标定板所在空间构建地面坐标系W与W’,确定地面坐标系W与地面坐标系W’的变换矩阵标定地面坐标系W与鱼眼摄像头坐标系F之间的位置关系,计算变换矩阵标定鱼眼摄像头坐标系F与云台无转动时长焦摄像头坐标系L0之间的位置关系,计算变换矩阵标定云台坐标系H和与其固接的长焦摄像头坐标系L之间的位置关系,计算变换矩阵3.根据权利要求1所述的四足机器人全局视觉定位方法,其特征是,所述利用基于核函数加权的粒子滤波算法对所述目标区域图像进行处理的步骤包括:利用核函数对目标区域图像内像素点进行加权处理,得到t-1时刻目标区域图像的颜色直方图;给定t-1时刻的N个采样点组成集合St-1,各个采样点的权重设为1/N;在集合St-1中,选择N个权重大的采样点组成一个新的集合S′t-1;预测集合S′t-1中各个采样点在t时刻的状态,构成新的集合St;获取集合St中每一个采样点所在位置处的颜色直方图,并与t-1时刻的目标区域颜色直方图进行比较,计算巴氏距离确定各个采样点的权重值;根据各个采样点的权重值,采用蒙特卡洛方法估算集合St的期望,将该期望为待定位目标的位置数据;重复上述步骤,得到连续N帧待定位目标的位置数据。4.根据权利要求3所述的四足机器人全局视觉定位方法,其特征是,还包括采用基于历史运动参数的轨迹预测方法对得到的N帧待定位目标的位置坐标进行处理的步骤;所述采用基于历史运动参数的轨迹预测方法对得到的N帧待定位目标的位置数据进行处理的步骤包括:建立一个固定长度的二维缓存区,保存得到的连续N帧待定位目标的位置坐标;求取N帧待定位目标的位置坐标数据的一阶导数和二阶导数,得到目标区域图像中待定位目标在x轴、y轴方向的速度与加速度离散曲线,并进行线性拟合;根据拟合曲线预测待定位目标在被遮挡过程中的走向。5.根据权利要求3所述的四足机器人全局视觉定位方法,其特征是,还包括采用基于均匀采样的丢失重检算法对目标区域图像进行处理的步骤;所述采用基于均匀采样的丢失重检算法对目标区域图像进行处理的步骤包括:向目标区域图像中均匀撒播采样点,并实时计算每一个采样点处的颜色直方图;将每一个采样点处的颜色直方图与目标图像模板直方图进行比较,计算巴氏距离,并更新每一个采样点的权重;设置重检测阈值,当某个采样点的权重超过阈值,则判断采样点复现...

【专利技术属性】
技术研发人员:李贻斌张辰柴汇荣学文范永
申请(专利权)人:山东大学
类型:发明
国别省市:山东,37

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1