【技术实现步骤摘要】
一种基于端到端特征优化模型的无人系统视觉自定位方法
[0001]本专利技术属于移动机器人领域,涉及一种基于端到端特征优化模型的无人系统视觉自定位方法。
技术介绍
[0002]自定位是SLAM、自主导航和增强现实等领域的重要技术基础,指自主无人系统在具有先验环境信息的地图中,根据自身装载传感器的信息计算其在地图中六自由度(6
‑
DoF)位姿的过程。为保证移动机器人长时间的精准定位,当累积误差严重、位姿跟踪失败、“被绑架”、断电重启等情况下必须进行自定位,位姿信息对于各种智能无人系统实现其他高级任务也至关重要。自主无人系统一般可以利用GPS、北斗为代表的卫星定位系统在室外环境中实现便捷高效的自定位,但受限于卫星信号的穿透性和定位精度,在室内环境、建筑密集的街区、山地/森林公园、特种涉密场合等GPS受限的场景,自主无人系统需要利用相机或激光雷达等传感器来获取环境信息,其中视觉传感器由于成本低、体型小、适用场合多被广泛应用于自定位任务。但是在复杂动态环境中,长时间视觉自定位主要面临如下困难:1)复杂环境中自然条件变化或者人为因素影响,使得自主无人系统当前所处的环境模型与先前构建的地图不一致或者矛盾,致使观测信息与先验地图无法匹配从而定位失败;2)环境中存在高度重复结构或者纹理稀疏场景,导致自主无人系统产生感知混淆或者难以捕捉有效视觉特征;3)实际环境中存在大量人、车等动态目标,其出现的时间与数量等都具有很大的不确定性,会给定位带来很大干扰。
[0003]根据位姿估计方法的不同,视觉自定位主要分为三类 ...
【技术保护点】
【技术特征摘要】
1.一种基于端到端特征优化模型的无人系统视觉自定位方法,其特征在于,包括以下步骤:步骤一、构造模型构造端到端预测全局位姿的深度神经网络模型,即Re
‑
PoseNet网络,或称Re
‑
PoseNet模型;步骤二、模型训练针对某一特定场景,对Re
‑
PoseNet模型进行训练;步骤三、模型应用将在所述的特定场景处采集的图像输入到Re
‑
PoseNet模型中,返回端到端的位姿估计结果。2.根据权利要求1所述的基于端到端特征优化模型的无人系统视觉自定位方法,其特征在于,Re
‑
PoseNet模型包括特征提取器、特征优化模块和位姿回归器,特征提取器是基于残差网络ResNet34的特征提取器,特征优化模块由两个交叉注意力模块和四方向的长短期记忆模块组成,位姿回归器由全连接层构成。3.根据权利要求1所述的基于端到端特征优化模型的无人系统视觉自定位方法,其特征在于,步骤二中的训练所用到的训练集的获取方式为:使用装载视觉传感器的移动机器人随机遍历某一场景,采集一组图像及其全局位姿作为训练数据集T,用于构建该场景的隐式地图模型,其中每帧图像对应的全局位姿作为后续网络训练的真值标签,记为其中表示位置信息,是用四元数表示的旋转信息。4.根据权利要求1所述的基于端到端特征优化模型的无人系统视觉自定位方法,其特征在于,训练过程为:步骤(1):对训练数据集T中的所有图像Ii进行预处理,生成尺寸为256
×
256、像素强度介于
‑
1和1之间的训练图像步骤(2):将一组训练图像及其位姿标签按照批量大小batch_size=64输入Re
‑
PoseNet,通过位姿回归器得到预测位姿[p,q],同时构建联合损失函数计算预测位姿[p,q]与其对应真值之间的损失;步骤(3):设置超参数初始学习率为5
×
10
‑5,迭代次数为1000,使用Adam优化器训练Re
‑
PoseNet网络,通过迭代使得损失函数不断收敛减小,更新网络参数直至达到迭代次数,选取损失函数取得最小值时对应的一组模型参数,作为该场景最优的隐式地图模型。5.根据权利要求1
‑
4任一项所述的基于端到端特征优化模型的无人系统视觉自定位方法,其特征在于,步骤三中,移动机器人在该场景内以任意运动状态进行作业,对其在任意时刻采集的位姿未知的图像I
t
进行预处理,生成尺寸为256
×
256、像素强度介于
‑
1和1之间的图像并作为查询图像输入训练好的具有最优权重的Re
‑
PoseNet模型中;通过特征提取器得到查询图像的特征图再经由注意力模块和长短期记忆单元得到经过优化的特征向量最后由位姿回归器分别输出预测的位置信息与旋转信息获得端到端的位姿估计结果。
6.根据权利要求5所述的基于端到端特征优化模型的无人系统视觉自定位方法,其特征在于,构建端到端预测全局位姿的深度神经网络(Re
‑
PoseNet)的具体过程如下:步骤1.1:设计Re
‑
PoseNet的特征提取器的具体结构如表1所示,共有3...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。