当前位置: 首页 > 专利查询>浙江大学专利>正文

一种基于稀疏视觉特征地图的无人车位置跟踪方法技术

技术编号:14907738 阅读:176 留言:0更新日期:2017-03-29 22:47
本发明专利技术公开了一种基于稀疏视觉特征地图的无人车位置跟踪方法。在已经探索过的野外环境中,由用户指定环境地图中的某一位置相对于地图的坐标。基于已建立的稀疏视觉特征地图提供的全局定位信息,生成目标位置跟踪控制量,控制无人车自动向目标位置行驶。与此同时,利用无人车搭载的距离传感器实时感知周围的障碍信息,生成局部避障控制量。通过融合目标位置跟踪和避障控制两个模块的控制量,实现无人车安全的位置跟踪控制。

【技术实现步骤摘要】

本专利技术属于移动机器人自主导航
,特别是基于稀疏视觉特征地图的无人车位置跟踪方法。
技术介绍
随着移动机器人技术的发展,针对非结构化场景自主建立环境地图,并基于所建立的环境地图实现安全的导航控制,成为越来越迫切的核心需求,是达成移动机器人高层次作业任务的基础支撑。为了提高建图的效率,一般的做法是提取环境的稀疏特征信息进行运算,最终生成的地图也是稀疏的表达形式,从而难以直接用于自主移动平台的路径规划和控制。
技术实现思路
本专利技术所要解决的技术问题是提供一种基于稀疏视觉特征地图的无人车位置跟踪方法,以解决稀疏环境地图难以集成到规划控制系统的问题。为此,本专利技术提供以下技术方案:一种基于稀疏视觉特征地图的无人车位置跟踪方法,其特征在于,包括以下步骤:步骤1,启动设有避障探索模块的无人车:设置无人车为随机探索环境的自动运动模式,启动双目相机,采集环境图像,建立稀疏视觉特征地图,并以二进制文件形式将稀疏视觉特征地图数据存储至车载计算机本地磁盘,构成稀疏视觉特征地图数据库;步骤2,从无人车载计算机的本地磁盘读取地图数据文件至内存,设置为定位跟踪模式;定位成功后,接收用户设置的目标位置坐标信息;按如下步骤,有位置关系变化后,反复尝试重定位:2.1.当没有成功重定位时,由所述避障探索模块生成随机控制量控制无人车运动;2.2.运动后采集新的场景图像,与稀疏视觉特征地图数据库中的场景进行匹配;2.3.匹配成功后进行位姿估计,计算无人车相对于地图的相对位置关系,实现重定位;步骤3:计算目标位置跟踪控制角:设无人车中心为本体坐标系的原点,前方为z轴的正方向,右方为x轴正方向,建立本体坐标系;设无人车启动时的无人车中心为全局坐标系的原点,前方为z轴的正方向,右方为x轴正方向,建立世界坐标系;根据当前定位信息和目标位置信息,计算目标位置跟踪控制角:设置无人车在世界坐标系下的当前位置为xcurr,zcurr和朝向hcurr,目标位置在世界坐标系下的坐标为xt和zt,可得到目标位置跟踪控制角,将目标位置变换至本体坐标系,计算公式如下:xin_cam=(xt-xcurr)·sin(hcurr)-(zt-zcurr)·cos(hcurr)zin_cam=(xt-xcurr)·cos(hcurr)+(zt-zcurr)·sin(hcurr)其中,xin_cam,zin_cam是目标位置在本体坐标系下的坐标。计算参考向量vx,vz,计算公式如下:vx=xin_cam-0vz=zin_cam-0计算目标位置跟踪控制角θctrl,计算公式如下:θctrl=tan-1(vx,vz);步骤4:根据车载距离传感器的障碍探测信息,计算局部的避障控制角;步骤5:加权融合目标位置跟踪控制角和局部的避障控制量,并将融合后的控制量发送给无人车执行,直至最终安全抵达目标位置;采用如下方式融合两个控制量,实现安全的目标跟踪:θ=w1θobs+w2θt;其中,w1、w2为权重系数,且有w1+w2=1.0;θobs是局部避障控制角,θt是目标位置跟踪控制角。在上述技术方案的基础上,本专利技术还可以采用一下进一步的技术方案:步骤1中,所述随机探索环境包括盲目避障模式,使得无人车随任意时刻尽可能朝向空旷的地带运动,采取如下步骤计算随机游走的运动方向:1.1在无人车上水平安装的2D激光雷达获取点云序列{(θi,di)|i=1,2,…,M本文档来自技高网...

【技术保护点】
一种基于稀疏视觉特征地图的无人车位置跟踪方法,其特征在于,包括以下步骤:步骤1,启动设有避障探索模块的无人车:设置无人车为随机探索环境的自动运动模式,启动双目相机,采集环境图像,建立稀疏视觉特征地图,并以二进制文件形式将稀疏视觉特征地图数据存储至车载计算机本地磁盘,构成稀疏视觉特征地图数据库;步骤2,从无人车载计算机的本地磁盘读取地图数据文件至内存,设置为定位跟踪模式;定位成功后,接收用户设置的目标位置坐标信息;按如下步骤,有位置关系变化后,反复尝试重定位:2.1.当没有成功重定位时,由所述避障探索模块生成随机控制量控制无人车运动;2.2.运动后采集新的场景图像,与稀疏视觉特征地图数据库中的场景进行匹配;2.3.匹配成功后进行位姿估计,计算无人车相对于地图的相对位置关系,实现重定位;步骤3:计算目标位置跟踪控制角:设无人车中心为本体坐标系的原点,前方为z轴的正方向,右方为x轴正方向,建立本体坐标系;设无人车启动时的无人车中心为全局坐标系的原点,前方为z轴的正方向,右方为x轴正方向,建立世界坐标系;根据当前定位信息和目标位置信息,计算目标位置跟踪控制角:设置无人车在世界坐标系下的当前位置为xcurr,zcurr和朝向hcurr,目标位置在世界坐标系下的坐标为xt和zt,可得到目标位置跟踪控制角,将目标位置变换至本体坐标系,计算公式如下:xin_cam=(xt‑xcurr)·sin(hcurr)‑(zt‑zcurr)·cos(hcurr)zin_cam=(xt‑xcurr)·cos(hcurr)+(zt‑zcurr)·sin(hcurr)其中,xin_cam,zin_cam是目标位置在本体坐标系下的坐标。计算参考向量vx,vz,计算公式如下:vx=xin_cam‑0vz=zin_cam‑0计算目标位置跟踪控制角θctrl,计算公式如下:θctrl=tan‑1(vx,vz);步骤4:根据车载距离传感器的障碍探测信息,计算局部的避障控制角;步骤5:加权融合目标位置跟踪控制角和局部的避障控制量,并将融合后的控制量发送给无人车执行,直至最终安全抵达目标位置;采用如下方式融合两个控制量,实现安全的目标跟踪:θ=w1θobs+w2θt;其中,w1、w2为权重系数,且有w1+w2=1.0;θobs是局部避障控制角,θt是目标位置跟踪控制角。...

【技术特征摘要】
1.一种基于稀疏视觉特征地图的无人车位置跟踪方法,其特征在于,包括以下步骤:步骤1,启动设有避障探索模块的无人车:设置无人车为随机探索环境的自动运动模式,启动双目相机,采集环境图像,建立稀疏视觉特征地图,并以二进制文件形式将稀疏视觉特征地图数据存储至车载计算机本地磁盘,构成稀疏视觉特征地图数据库;步骤2,从无人车载计算机的本地磁盘读取地图数据文件至内存,设置为定位跟踪模式;定位成功后,接收用户设置的目标位置坐标信息;按如下步骤,有位置关系变化后,反复尝试重定位:2.1.当没有成功重定位时,由所述避障探索模块生成随机控制量控制无人车运动;2.2.运动后采集新的场景图像,与稀疏视觉特征地图数据库中的场景进行匹配;2.3.匹配成功后进行位姿估计,计算无人车相对于地图的相对位置关系,实现重定位;步骤3:计算目标位置跟踪控制角:设无人车中心为本体坐标系的原点,前方为z轴的正方向,右方为x轴正方向,建立本体坐标系;设无人车启动时的无人车中心为全局坐标系的原点,前方为z轴的正方向,右方为x轴正方向,建立世界坐标系;根据当前定位信息和目标位置信息,计算目标位置跟踪控制角:设置无人车在世界坐标系下的当前位置为xcurr,zcurr和朝向hcurr,目标位置在世界坐标系下的坐标为xt和zt,可得到目标位置跟踪控制角,将目标位置变...

【专利技术属性】
技术研发人员:刘勇张高明张涛
申请(专利权)人:浙江大学
类型:发明
国别省市:浙江;33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1