用于大尺度多站点场景的移动机器人位姿测量方法及系统技术方案

技术编号:26643996 阅读:15 留言:0更新日期:2020-12-08 23:31
本发明专利技术属于移动机器人位姿测量领域,并具体公开了一种用于大尺度多站点场景的移动机器人位姿测量方法及系统,包括如下步骤:移动机器人在各个站点示教,获取移动机器人在站点示教位置的绝对位姿即目标位姿,并利用视觉测量获得移动机器人在各站点目标位姿与站点标志的相对位姿;移动机器人在多站点场景中移动,获得移动机器人在当前绝对位姿与观测站点标志的相对位姿,进而得到移动机器人当前绝对位姿与该观测站点目标位姿的相对位姿,最后结合观测站点的目标位姿实时、精准地得到移动机器人在站点附近的绝对位姿。本发明专利技术具有布置便捷、成本低廉、测量精度高、不易被障碍物遮挡失效等优势,尤其适用于大尺度、多站点的复杂工作场景。

【技术实现步骤摘要】
用于大尺度多站点场景的移动机器人位姿测量方法及系统
本专利技术属于移动机器人位姿测量领域,更具体地,涉及一种用于大尺度多站点场景的移动机器人位姿测量方法及系统。
技术介绍
移动机器人因其适用性与移动性被广泛运用于大尺度多站点的复杂场景中,如电子电器制造车间、汽车零部件制造车间等,精准的位姿测量是移动机器人在该场景中实现自主移动的核心技术。通常情况下,移动机器人需要频繁地在场景内执行站点停靠任务并在站点完成精准的拾取和放置物料等操纵任务,因此为了精准、可靠地实现以上任务,移动机器人在站点附近的位姿测量精度要求相比其他工作区域要求更高。在相对固定的空间中,利用少量的激光跟踪器、相机等传感器就可以对移动机器人进行精准的位姿测量。然而,由于移动机器人具有较高的灵活性和机动性,并运行于多站点的大尺度场景下,空间尺度大,存在站点、动态障碍物遮挡等问题,上述简单的测量方法难以满足实际需求。在过去的几十年中,多种位姿测量技术如外部观测系统,三角测量技术以及概率自定位技术等被广泛的研究,虽已被验证可以用于在大规模场景下进行移动机器人的位姿测量,但仍存在明显的不足,具体概括如下:(1)外部观察系统,例如论文《AnApproachTowardsAutomatedNavigationofVehiclesUsingOverheadCameras》和专利CN201810433262.5《一种足式机器人本体状态测量方法》中的运动捕捉系统,是准确获得机器人位姿的常见方法。该方法需要对大量图片进行复杂的信号处理并且要求机器人在传感器观察范围内。因此在大尺度和多站点的场景中,该方法需要放置大量的外部设备(如视觉传感器),提高了测量系统的规模、成本以及布置的时间。(2)三角测量技术,如专利CN201621117777.7《一种可增强测量范围的激光测距装置》和CN201510467525.0《基于光电扫描的室内移动机器人位姿测量系统及测量方法》,可以在大场景中实现高精度测量。但该方法仍存在反射器布局较为复杂以及站点或障碍物遮挡导致定位失败等问题。(3)概率定位技术,其通常采用扩展卡尔曼滤波器和蒙特卡罗定位等技术,如论文《基于自适应多提议分布粒子滤波的蒙特卡洛定位算法》所示,可以使用移动机器人自身传感器进行位姿测量,该方法测量精度较低。综上所述,目前存在的移动机器人位姿测量系统在大尺度多站点的复杂场景中存在系统规模和成本大,布置的时间长,易受障碍物遮挡导致测量失效或者测量精度低等不足,并且没有对大尺度多站点环境的高精度位姿测量进行专门的研究。
技术实现思路
针对现有技术的以上缺陷或改进需求,本专利技术提供了一种用于大尺度多站点场景的移动机器人位姿测量方法及系统,其目的在于,通过将移动机器人在站点示教,利用点云匹配技术根据多帧雷达数据以及地图点云数据,计算出其在各个站点示教位置的精准位姿,即目标位姿;然后当机器人运动在站点附近或停靠在站点时,利用环绕车体的CCD相机以及站点标志,采用视觉测量方法获得目标位姿与当前位姿的相对位姿,结合目标位姿和相对位姿即可从实现移动机器人在站点附近的精确位姿测量。为实现上述目的,按照本专利技术的一方面,提出了一种用于大尺度多站点场景的移动机器人位姿测量方法,包括如下步骤:S1移动机器人在站点示教,获取移动机器人在该站点示教位置的绝对位姿,即目标位姿;S2利用视觉测量方法获得移动机器人在该站点目标位姿时与该站点标志的相对位姿;S3重复步骤S1、S2,直至获得移动机器人在所有站点的目标位姿,以及在目标位姿与相应站点标志的相对位姿;S4移动机器人在多站点场景中移动,当移动机器人停靠某一站点或在站点附近,且移动机器人上的CCD相机能够清晰观测到该站点的站点标志时,利用视觉测量方法获得移动机器人在当前绝对位姿与观测站点标志的相对位姿;S5根据移动机器人在该观测站点目标位姿与站点标志的相对位姿,以及移动机器人在当前绝对位姿与观测站点标志的相对位姿,计算出移动机器人当前绝对位姿与该观测站点目标位姿的相对位姿,进而结合该观测站点的目标位姿得到移动机器人当前绝对位姿,完成移动机器人位姿测量。作为进一步优选的,所述步骤S1中,获取移动机器人在站点示教位置的目标位姿,包括如下步骤:S11获取地图点云作为站点处的源点集Q;通过移动机器人上的激光雷达采集周围环境的点云数据,然后将其与移动机器人的初始位姿P0结合,得到移动机器人在站点处的目标点集Pn,n=1;S12计算源点集Q到目标点集Pn之间,使误差函数达到最小值的变换矩阵Tn;S13通过变换矩阵Tn校正当前的目标点集Pn,得到新的目标点集Pn+1与当前变换矩阵Tn,并执行Pn=Pn+1,n=n+1;S14判断是否满足收敛条件,否则返回步骤S12,是则计算完成当前迭代的总变换矩阵Tt=T1·T2·T3…Tn;S15重复S11~S14若干次,得到多个总变换矩阵,将其分别与初始位姿P0结合,得到多个绝对位姿,对该多个绝对位姿求平均值得到移动机器人在站点示教位置的目标位姿。作为进一步优选的,所述步骤S11中,将由移动机器人建图功能得到的地图进行栅格化处理得到栅格化地图,将该栅格化地图转化为地图点云,并对该地图点云进行去噪,以去噪后的地图点云作为站点处的源点集Q。作为进一步优选的,对栅格化地图中存在障碍物的部分进行中心点选取,从而将栅格化地图转化为地图点云。作为进一步优选的,采用具有噪声的基于密度的聚类方法对地图点云进行去噪。作为进一步优选的,通过蒙特卡洛算法估算出移动机器人的初始绝对位姿,以该初始绝对位姿作为移动机器人的初始位姿P0。作为进一步优选的,所述误差函数e(R,t)的计算公式如下:其中,qj为源点集中的点,Nm为源点集中点的数量;pi为目标点集中的点,Nd为目标点集中点的数量。作为进一步优选的,采用SVD分解法计算误差函数的最小值。作为进一步优选的,所述步骤S2中,获取移动机器人在站点目标位姿时与站点标志的相对位姿,包括如下步骤:S21移动机器人在站点示教位置时,通过移动机器人上的CCD相机拍摄站点标志并提取站点标志上的特征点,且特征点数不小于4个;S22根据张正友标定法建立特征点在相机坐标系的坐标位置与其像素位置的线性关系,从而获得CCD相机与站点标志特征点的相对位置;S23根据CCD相机与站点标志特征点的相对位置,以及移动机器人坐标系与相机坐标系的对应关系,得到移动机器人与站点标志特征点的相对位置,即移动机器人与站点标志的相对位姿。按照本专利技术的另一方面,提供了一种用于实现上述用于大尺度多站点场景的移动机器人位姿测量方法的系统,包括不少于两个激光雷达、不少于四个CCD相机,以及多个站点标志,其中:所述站点标志安装在各站点处;两个所述激光雷达分别安装在移动机器人车体对角方向,且均位于移动机器人车体高度的中间位置;四个所述CCD相机分别安装在移动机器人车体侧面前、后、左、右四个方向,且安装本文档来自技高网
...

【技术保护点】
1.一种用于大尺度多站点场景的移动机器人位姿测量方法,其特征在于,包括如下步骤:/nS1移动机器人在站点示教,获取移动机器人在该站点示教位置的绝对位姿,即目标位姿;/nS2利用视觉测量方法获得移动机器人在该站点目标位姿时与该站点标志的相对位姿;/nS3重复步骤S1、S2,直至获得移动机器人在所有站点的目标位姿,以及在目标位姿与相应站点标志的相对位姿;/nS4移动机器人在多站点场景中移动,当移动机器人停靠某一站点或在站点附近,且移动机器人上的CCD相机能够清晰观测到该站点的站点标志时,利用视觉测量方法获得移动机器人在当前绝对位姿与观测站点标志的相对位姿;/nS5根据移动机器人在该观测站点目标位姿与站点标志的相对位姿,以及移动机器人在当前绝对位姿与观测站点标志的相对位姿,计算出移动机器人当前绝对位姿与该观测站点目标位姿的相对位姿,进而结合该观测站点的目标位姿得到移动机器人当前绝对位姿,完成移动机器人位姿测量。/n

【技术特征摘要】
1.一种用于大尺度多站点场景的移动机器人位姿测量方法,其特征在于,包括如下步骤:
S1移动机器人在站点示教,获取移动机器人在该站点示教位置的绝对位姿,即目标位姿;
S2利用视觉测量方法获得移动机器人在该站点目标位姿时与该站点标志的相对位姿;
S3重复步骤S1、S2,直至获得移动机器人在所有站点的目标位姿,以及在目标位姿与相应站点标志的相对位姿;
S4移动机器人在多站点场景中移动,当移动机器人停靠某一站点或在站点附近,且移动机器人上的CCD相机能够清晰观测到该站点的站点标志时,利用视觉测量方法获得移动机器人在当前绝对位姿与观测站点标志的相对位姿;
S5根据移动机器人在该观测站点目标位姿与站点标志的相对位姿,以及移动机器人在当前绝对位姿与观测站点标志的相对位姿,计算出移动机器人当前绝对位姿与该观测站点目标位姿的相对位姿,进而结合该观测站点的目标位姿得到移动机器人当前绝对位姿,完成移动机器人位姿测量。


2.如权利要求1所述的用于大尺度多站点场景的移动机器人位姿测量方法,其特征在于,所述步骤S1中,获取移动机器人在站点示教位置的目标位姿,包括如下步骤:
S11获取地图点云作为站点处的源点集Q;通过移动机器人上的激光雷达采集周围环境的点云数据,然后将其与移动机器人的初始位姿P0结合,得到移动机器人在站点处的目标点集Pn,n=1;
S12计算源点集Q到目标点集Pn之间,使误差函数达到最小值的变换矩阵Tn;
S13通过变换矩阵Tn校正当前的目标点集Pn,得到新的目标点集Pn+1与当前变换矩阵Tn,并执行Pn=Pn+1,n=n+1;
S14判断是否满足收敛条件,否则返回步骤S12,是则计算完成当前迭代的总变换矩阵Tt=T1·T2·T3…Tn;
S15重复S11~S14若干次,得到多个总变换矩阵,将其分别与初始位姿P0结合,得到多个绝对位姿,对该多个绝对位姿求平均值得到移动机器人在站点示教位置的目标位姿。


3.如权利要求2所述的用于大尺度多站点场景的移动机器人位姿测量方法,其特征在于,所述步骤S11中,将由移动机器人建图功能得到的地图进行栅格化处理得到栅格化地图,将该栅格化地图转化为地图点云,并对该地图点云进行去噪,以去噪后的地图点云作为站点处的源点集Q。

【专利技术属性】
技术研发人员:谢远龙孟杰王书亭蒋立泉刘伦洪李鹏程孙浩东吴天豪刘超吴昊
申请(专利权)人:华中科技大学
类型:发明
国别省市:湖北;42

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1