全自动割草机器人的双视觉自定位系统技术方案

技术编号:12022157 阅读:85 留言:0更新日期:2015-09-09 19:07
本发明专利技术涉及全自动割草机器人的双视觉自定位系统,包括进行实时图像采集的第一视觉采集模块和第二视觉采集模块,所述的第一视觉采集模块和第二视觉采集模块由数据存储模块,无线传输模块,摄像头模块、控制模块组成;所述的摄像头模块与所述的数据存储模块连接,所述的数据存储模块与所述的无线传输模块连接,所述的控制模块与所述的数据存储模块、所述的摄像头模块、所述的无线传输模块连接,起协调控制作用;还包括设置在所述的全自动割草机器人上的主控制器;所述的主控制器和所述的第一视觉采集模块和第二视觉采集模块通过无线连接;所述的主控制器还设置确定所述的全自动割草机器人位置坐标的草地定位算法。

【技术实现步骤摘要】
全自动割草机器人的双视觉自定位系统
本专利技术涉及室外移动机器人的自定位功能。
技术介绍
随着室外草地绿化区域的覆盖范围变广,为了提高割草的效率,节省割草的时间,便利人们的生活,全自动割草机器人已经广泛应用在生活中。全自动割草机器人免去了人力劳动,实现了割草自动化,提升了割草的效率,并节省了维护草地的费用和时间成本。同时在全自动割草机器人实际应用中由于室外草地充斥着灌木丛、小土丘、树木、花等障碍物和池塘、低洼地等特殊地形。现有全自动割草机器人视觉自定位系统需要较多的实际参考数据,需要较多种类的传感器配合,计算速度慢且定位结果不精确。全自动割草机器人在实际工作中需要视觉自定位系统提供自身的位置信息,才能进行路径规划、回归充电工作。但是现有的全自动割草机器人视觉自定位系统无法快速和准确的为全自动割草机器人提供位置信息,对全自动割草机器人路径规划的准确性和回归充电的效率造成了制约。
技术实现思路
本专利技术的目的是为了解决在实际工作草地环境下,全自动割草机器人的自定位问题,为路径规划和回归充电提供位置信息。本专利技术解决其技术问题所采用的技术方案是:全自动割草机器人的双视觉自定位系统,包括进行实时图像采集的第一视觉采集模块和第二视觉采集模块,所述的第一视觉采集模块和第二视觉采集模块由数据存储模块,无线传输模块,摄像头模块、控制模块组成;所述的摄像头模块与所述的数据存储模块连接,所述的数据存储模块与所述的无线传输模块连接,所述的控制模块与所述的数据存储模块、所述的摄像头模块、所述的无线传输模块连接,起协调控制作用;还包括设置在所述的全自动割草机器人上的主控制器;所述的主控制器与所述的第一视觉采集模块和第二视觉采集模块通过无线连接;所述的主控制器还设置确定所述的全自动割草机器人位置坐标的草地定位算法。在所述的全自动割草机器人的工作草坪上设置草坪坐标系,所述的草坪坐标系的原点设置在工作草坪的中心,所述的第一视觉采集模块设置在所述的草坪坐标系的X坐标轴上,距离原点的距离为D1,所述的第二视觉采集模块设置在所述的草坪坐标系的Y坐标轴上,距离原点的距离为D2。所述的草地定位算法用于计算所述的全自动割草机器人的位置坐标(X,Y),设置以下步骤:第一步:所述的第一视觉采集模块获取工作草地的图像,设置图像坐标系的原点位于图像的中心,并从图像中识别出所述的全自动割草机器人,并标注出坐标为x1,x1/f1=Y/(X+D1),其中f1是所述的第一视觉采集模块的摄像头模块的焦距;第二步:同时,所述的第二视觉采集模块获取工作草地的图像,设置图像坐标系的原点位于图像的中心,并从图像中识别出所述的全自动割草机器人,并标注出坐标为x2,x2/f2=X/(Y+D2),其中f2是所述的第二视觉采集模块的摄像头模块的焦距;第三步:将第一步和第二步得到的方程,结合成方程组,得到X=(x1x2D1+x2f1D2)/(f1f2-x1x2),Y=(x1x2D2+x1f2D1)/(f1f2-x1x2)。附图说明图1是第一视觉采集模块和第二视觉采集模块的原理结构示意图;图2是草地平面坐标系示意图;图3是坐标参数计算示意图;具体实施方式下面结合附图对本专利技术作进一步描述:如图1-3所示,全自动割草机器人的双视觉自定位系统,包括进行实时图像采集的第一视觉采集模块7和第二视觉采集模块6,所述的第一视觉采集模块7和第二视觉采集模块6由数据存储模块3,无线传输模块4,摄像头模块2、控制模块1组成;所述的控制模块1与所述的数据存储模块3、所述的摄像头模块2、所述的无线传输模块4连接,所述的控制模块1协调所述的无线传输模块4、所述的摄像头模块2和所述的数据存储模块3同步工作,实现了所述的第一视觉采集模块7和所述的第二视觉采集模块6获取工作草地的图像并从图像中识别出所述的全自动割草机器人5的功能。还包括设置在所述的全自动割草机器人5上的主控制器;所述的主控制器与所述的第一视觉采集模块7和第二视觉采集模块6通过无线连接,可以采用蓝牙无线连接,也可以采用wifi无线连接,不影响专利的实施。所述的主控制器还设置确定所述的全自动割草机器人5位置坐标的草地定位算法。在所述的全自动割草机器人的工作草坪上设置草坪坐标系8,所述的草坪坐标系8的原点设置在工作草地的中心,所述的第一视觉采集模块7设置所述的草坪坐标系8的X坐标轴上,距离原点的距离为D1,所述的第二视觉采集模块6设置在所述的草坪坐标系8的Y坐标轴上,距离原点的距离为D2。所述的第一视觉采集模块7和第二视觉采集模块6用高度为1米的三角支架立式安装;所述的第一视觉采集模块7和第二视觉采集模块6的俯仰观察角度根据矩形区域大小可调,合适的俯仰观察角度可以保证所述的第一视觉采集模块7和第二视觉采集模块6能观察到工作草坪的全景。所述的草地定位算法用于计算所述的全自动割草机器人5的位置坐标(X,Y),设置以下步骤:第一步:所述的第一视觉采集模块7获取工作草地的图像,设置图像坐标系的原点位于图像的中心,从图像中识别出所述的全自动割草机器人5,并标注出坐标为x1,x1/f1=Y/(X+D1),其中f1是所述的第一视觉采集模块7的摄像头模块的焦距;在第一步中,所述的第一视觉采集模块7通过三角约束关系确定坐标X与坐标Y的第一个约束关系。第二步:同时,所述的第二视觉采集模块6获取工作草地的图像,设置图像坐标系的原点位于图像的中心,并从图像中识别出所述的全自动割草机器人5,并标注出坐标为x2,x2/f2=X/(Y+D2),其中f2是所述的第二视觉采集模块6的摄像头模块的焦距;在第二步中,所述的第二视觉采集模块6通过三角约束关系确定坐标X与坐标Y的第二个约束关系。第三步:将第一步和第二步得到的方程,结合成方程组,得到X=(x1x2D1+x2f1D2)/(f1f2-x1x2),Y=(x1x2D2+x1f2D1)/(f1f2-x1x2)。在第三步中,运用方程组的求解方法得到坐标(X,Y)的具体数值。综上所述,本专利方案通过简单的数学方法计算定位数据,需要的实际参数较少,因此实际环境的干扰对计算结果造成的误差较小,同时算法简单,计算和处理速度较快,能为全自动割草机器人提供实时的定位数据,为全自动割草机器人路径规划和回归充电提供位置信息,因此该专利技术具有较好的应用前景。本文档来自技高网...
全自动割草机器人的双视觉自定位系统

【技术保护点】
全自动割草机器人的双视觉自定位系统,其特征在于:包括进行实时图像采集的第一视觉采集模块和第二视觉采集模块,所述的第一视觉采集模块和第二视觉采集模块由数据存储模块,无线传输模块,摄像头模块、控制模块组成;所述的摄像头模块与所述的数据存储模块连接,所述的数据存储模块与所述的无线传输模块连接,所述的控制模块与所述的数据存储模块、所述的摄像头模块、所述的无线传输模块连接,起协调控制作用;还包括设置在所述的全自动割草机器人上的主控制器;所述的主控制器与所述的第一视觉采集模块和第二视觉采集模块通过无线连接;所述的主控制器还设置确定所述的全自动割草机器人位置坐标的草地定位算法。

【技术特征摘要】
1.全自动割草机器人的双视觉自定位系统,包括进行实时图像采集的第一视觉采集模块和第二视觉采集模块,所述的第一视觉采集模块和第二视觉采集模块由数据存储模块,无线传输模块,摄像头模块、控制模块组成;所述的摄像头模块与所述的数据存储模块连接,所述的数据存储模块与所述的无线传输模块连接,所述的控制模块与所述的数据存储模块、所述的摄像头模块、所述的无线传输模块连接,起协调控制作用;还包括设置在所述的全自动割草机器人上的主控制器;所述的主控制器与所述的第一视觉采集模块和第二视觉采集模块通过无线连接;所述的主控制器还设置确定所述的全自动割草机器人位置坐标的草地定位算法;在所述的全自动割草机器人的工作草坪上设置草坪坐标系,所述的草坪坐标系的原点设置在工作草坪的中心,所述的第一视觉采集模块设置在所述的草坪坐标系的X坐标轴上,距离原点的距离为D1,所述的第二视觉采集模块设置在所述的草...

【专利技术属性】
技术研发人员:邢明胡轩章思恩刘瑜
申请(专利权)人:浙江理工大学
类型:发明
国别省市:浙江;33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1