一种机器人的检测数据融合方法和主控芯片及机器人技术

技术编号:24008399 阅读:42 留言:0更新日期:2020-05-02 00:56
本发明专利技术公开了一种机器人的检测数据融合方法和主控芯片及机器人,只需对相关检测数据进行简单的坐标转换,能够实现光流数据和码盘数据的高效融合处理,运算量小,所需运算资源少,使得机器人在光流数据无效的情况下,也能够进行准确的坐标定位。

A method of robot detection data fusion and main control chip and robot

【技术实现步骤摘要】
一种机器人的检测数据融合方法和主控芯片及机器人
本专利技术涉及智能机器人领域,具体涉及一种机器人的检测数据融合方法和主控芯片及机器人。
技术介绍
基于惯性导航的机器人越来越普及,代表性比较强的是家庭扫地清洁机器人,结合陀螺仪、加速度跟轮子里程计的数据,实现室内环境即时定位跟建图,再根据建立的地图实现定位导航,但是由于家庭环境比较复杂,存在各种未知条件,随着时间的推移,轮子打滑产生的误差会积累越来越大,导致地图出现偏差失效,经常会导致机器人导航出现比较大的误差。寻找一种可靠的方法避免机器人出现打滑的情况导致地图偏差的问题,一直是机器人领域的一大难题。中国专利公开号为CN109506652A的专利技术专利申请,公开了一种基于地毯偏移的光流数据融合方法,该方法采用码盘跟光流传感器融合的数据推算出相对偏移位置的坐标,并根据光流传感器的感测数据的可靠性分别更新码盘和光流传感器的当前的感测数据,从而提高机器人记录地毯偏移位置坐标的准确度。该方法采用的运算方式相对比较复杂,运算量较大,所耗费运算资源较多。专利技术内容本专利技术本文档来自技高网...

【技术保护点】
1.一种机器人的检测数据融合方法,其特征在于,包括如下步骤:/n基于光流传感器检测到的光流数据,机器人判断所述光流数据是否有效;/n在光流数据有效的情况下,基于光流数据确定光流坐标为(X1,Y1),并基于陀螺仪检测到的数据确定机器人当前方向的角度为θ1,则将光流坐标旋转-θ1角度后,得到机器人的中心点位于全局坐标系的X轴上时,光流坐标为(X2=X1*cos(-θ1)-Y1*sin(-θ1),Y2=Y1*cos(-θ1)+X1*sin(-θ1));然后基于光流传感器与机器人中心点的距离L以及光流传感器与机器人中心点的连线与机器人正前方的夹角θ2,将光流坐标(X2,Y2)转换成机器人中心点的机器坐...

【技术特征摘要】
1.一种机器人的检测数据融合方法,其特征在于,包括如下步骤:
基于光流传感器检测到的光流数据,机器人判断所述光流数据是否有效;
在光流数据有效的情况下,基于光流数据确定光流坐标为(X1,Y1),并基于陀螺仪检测到的数据确定机器人当前方向的角度为θ1,则将光流坐标旋转-θ1角度后,得到机器人的中心点位于全局坐标系的X轴上时,光流坐标为(X2=X1*cos(-θ1)-Y1*sin(-θ1),Y2=Y1*cos(-θ1)+X1*sin(-θ1));然后基于光流传感器与机器人中心点的距离L以及光流传感器与机器人中心点的连线与机器人正前方的夹角θ2,将光流坐标(X2,Y2)转换成机器人中心点的机器坐标(X3=X2+L*cosθ2,Y3=Y2+L*sinθ2),最后将机器坐标(X3,Y3)旋转θ1角度后得出机器人当前的运动坐标(X4=X3*cos(θ1)-Y3*sin(θ1),Y4=Y3*cos(θ1)+X3*sin(θ1)),并基于当前的运动坐标,更新码盘检测到的码盘数据;
在光流数据无效的情况下,基于码盘数据确定机器坐标为(X5,Y5),并基于陀螺仪检测到的数据确定机器人当前方向的角度为θ3,则将机器坐标旋转-θ3角度后,得到机器坐标位于全局坐标系的X轴上的坐标为(X6=X5*cos(-θ3)-Y5*sin(-θ3),Y6=Y5*cos(-θ3)+X5*sin(-θ3);然后基于光流传感器与机器人中心点的距离L以及光流传感器与机器人中心点的连线与机器人正前方的夹角θ2,将X轴上的机器坐标(X6,Y6)转换成待定光流坐标(X7=X6-L*cos...

【专利技术属性】
技术研发人员:戴剑锋
申请(专利权)人:珠海市一微半导体有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1