机器人监控方法技术

技术编号:39506363 阅读:10 留言:0更新日期:2023-11-24 11:38
本申请公开了一种机器人监控方法

【技术实现步骤摘要】
机器人监控方法、装置、设备及存储介质


[0001]本申请涉及机器人
,更具体的说,是涉及一种机器人监控方法

装置

设备及存储介质


技术介绍

[0002]随着科技的发展,机器人在工业

医疗

家庭等领域的应用越来越广泛,尤其是在物流

配送等行业中,移动机器人已经成为了一种重要的运输工具

然而,由于移动机器人的复杂性和不确定性,其在实际应用过程中可能会遇到各种问题,如定位不准确

路径规划不合理

机器人运行状态异常等

因此,开发一种能够实时监控移动机器人状态的监控系统具有重要的现实意义

[0003]机器人监控可以包括对机器人位姿

运行状态等进行监控

其中,位姿是进行机器人导航及处理其它任务的基础,因此对机器人位姿的监控尤为重要

现有技术提供了许多基于传感器和算法的监控方案,比较常见的如
SLAM
算法
(Simultaneous Localization And Mapping
,同步定位与地图构建
)
,能够定位机器人的位姿信息

[0004]尽管这些方法和技术在一定程度上解决了移动机器人状态监控的问题,但仍然存在一些局限性,如单一的算法容易受复杂环境等因素的影响,无法保证监控信息的准确性,其可信度较低


技术实现思路

[0005]鉴于上述问题,提出了本申请以便提供一种机器人监控方法

装置

设备及存储介质,以提供一种可信度较高的机器人监控方案,提升监控信息的准确性

具体方案如下:
[0006]第一方面,提供了一种机器人监控方法,包括:
[0007]采用至少两种位姿检测算法,分别得到机器人当前的位姿检测结果,所述至少两种位姿检测算法包括基于机器人自身传感器的位姿检测算法,以及基于外部传感器的位姿检测算法;
[0008]对所述至少两种位姿检测算法的位姿检测结果进行融合,得到融合位姿,并基于各所述位姿检测算法的位姿检测结果验证所述融合位姿是否可信;
[0009]在所述融合位姿可信时,将所述融合位姿保存为所述机器人当前的有效位姿

[0010]优选地,所述至少两种位姿检测算法包括:
[0011]同步定位与地图构建
SLAM
算法

基于特殊标记的视觉定位检测算法

[0012]优选地,所述基于特殊标记的视觉定位检测算法包括:基于
ArUco
标记的位姿检测算法

[0013]优选地,所述至少两种位姿检测算法还包括:
[0014]基于深度神经网络模型的位姿检测算法,所述深度神经网络模型训练时的训练样本包括:当前帧训练图片

目标位姿及机器人的历史位姿,样本标签为当前时刻机器人的位姿;
[0015]则采用基于深度神经网络模型的位姿检测算法得到机器人当前的位姿检测结果的过程,包括:
[0016]获取当前帧图片

当前帧对应的目标位姿以及机器人的历史位姿,组成输入状态数据;
[0017]将所述输入状态数据送入训练后的所述深度神经网络模型,得到模型输出的机器人当前的位姿检测结果

[0018]优选地,采用至少两种位姿检测算法,分别得到机器人当前的位姿检测结果,对所述至少两种位姿检测算法的位姿检测结果进行融合,得到融合位姿,并基于各所述位姿检测算法的位姿检测结果验证所述融合位姿是否可信的过程,包括:
[0019]采用所述
SLAM
算法得到机器人当前的第一位姿,以及采用基于特殊标记的视觉定位检测算法得到机器人当前的第二位姿;
[0020]对所述第一位姿和所述第二位姿进行位姿融合投票,得到融合位姿;
[0021]根据所述融合位姿与所述第一位姿

所述第二位姿各自的差异大小,对所述融合位姿进行首次可信性判断;
[0022]若首次可信性判断确定所述融合位姿可信,则最终确定所述融合位姿可信;若首次可信性判断确定所述融合位姿不可信,则采用基于所述神经网络模型的位姿检测算法得到机器人当前的第三位姿及置信度;
[0023]对比所述融合位姿信息与所述第三位姿的差异,如果差异处于设定差异范围内,且所述置信度不低于设定置信度阈值,则最终确定所述融合位姿可信,否则,最终确定所述融合位姿不可信

[0024]优选地,在将所述融合位姿保存为所述机器人当前的有效位姿之前,还包括:
[0025]在所述融合位姿可信时,根据规划的机器人的目标位姿及历史运动状态,确定当前位姿的合理范围;
[0026]判断所述融合位姿是否处于所述当前位姿的合理范围内,若是,确定所述融合位姿合理,执行将所述融合位姿保存为所述机器人当前的有效位姿的步骤,若否,确定所述融合位姿不合理,丢弃当前帧

[0027]优选地,对所述第一位姿和所述第二位姿进行位姿融合投票,得到融合位姿,包括:
[0028]设定所述第一位姿和所述第二位姿的协方差矩阵;
[0029]将所述第一位姿和所述第二位姿,通过卡尔曼滤波及所述协方差矩阵计算出滤波融合后的结果,得到融合位姿

[0030]优选地,还包括:
[0031]获取所述机器人实际的运行状态轨迹,所述运行状态轨迹包括时间戳及每一所述时间戳对应的运行状态信息;
[0032]对比所述实际的运行状态轨迹与规划的理论运行状态轨迹间的差异,若差异超过设定容忍度则输出提示信息

[0033]优选地,所述运行状态信息包括以下任意一项或多项:
[0034]内部状态类

动作状态类

事件状态类

[0035]优选地,还包括:
[0036]根据所述实际的运行状态轨迹与规划的理论运行状态轨迹间的差异,确定发生异常的目标状态;
[0037]根据预先配置的状态间关联关系,确定与所述目标状态关联的各相关状态,及各相关状态间的从属关系;
[0038]按照所述从属关系依次遍历各个所述相关状态,调取所述相关状态的属性项的属性信息,并基于所述属性信息进行属性项的可靠性分析;
[0039]筛选不满足可靠性条件的目标属性项,并获取目标属性项对应的异常标签;
[0040]由各所述异常标签组成所述目标状态的异常原因集合

[0041]优选地,还包括:
[0042]将获取的当前时刻之前设定时长内所述机器人各时间戳的有效位姿存入实时位姿队列,及,将规划的所述机器人各时间戳的目标位姿存在本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种机器人监控方法,其特征在于,包括:采用至少两种位姿检测算法,分别得到机器人当前的位姿检测结果,所述至少两种位姿检测算法包括基于机器人自身传感器的位姿检测算法,以及基于外部传感器的位姿检测算法;对所述至少两种位姿检测算法的位姿检测结果进行融合,得到融合位姿,并基于各所述位姿检测算法的位姿检测结果验证所述融合位姿是否可信;在所述融合位姿可信时,将所述融合位姿保存为所述机器人当前的有效位姿
。2.
根据权利要求1所述的方法,其特征在于,所述至少两种位姿检测算法包括:同步定位与地图构建
SLAM
算法

基于特殊标记的视觉定位检测算法
。3.
根据权利要求2所述的方法,其特征在于,所述基于特殊标记的视觉定位检测算法包括:基于
ArUco
标记的位姿检测算法
。4.
根据权利要求2所述的方法,其特征在于,所述至少两种位姿检测算法还包括:基于深度神经网络模型的位姿检测算法,所述深度神经网络模型训练时的训练样本包括:当前帧训练图片

目标位姿及机器人的历史位姿,样本标签为当前时刻机器人的位姿;则采用基于深度神经网络模型的位姿检测算法得到机器人当前的位姿检测结果的过程,包括:获取当前帧图片

当前帧对应的目标位姿以及机器人的历史位姿,组成输入状态数据;将所述输入状态数据送入训练后的所述深度神经网络模型,得到模型输出的机器人当前的位姿检测结果
。5.
根据权利要求4所述的方法,其特征在于,采用至少两种位姿检测算法,分别得到机器人当前的位姿检测结果,对所述至少两种位姿检测算法的位姿检测结果进行融合,得到融合位姿,并基于各所述位姿检测算法的位姿检测结果验证所述融合位姿是否可信的过程,包括:采用所述
SLAM
算法得到机器人当前的第一位姿,以及采用基于特殊标记的视觉定位检测算法得到机器人当前的第二位姿;对所述第一位姿和所述第二位姿进行位姿融合投票,得到融合位姿;根据所述融合位姿与所述第一位姿

所述第二位姿各自的差异大小,对所述融合位姿进行首次可信性判断;若首次可信性判断确定所述融合位姿可信,则最终确定所述融合位姿可信;若首次可信性判断确定所述融合位姿不可信,则采用基于所述神经网络模型的位姿检测算法得到机器人当前的第三位姿及置信度;对比所述融合位姿信息与所述第三位姿的差异,如果差异处于设定差异范围内,且所述置信度不低于设定置信度阈值,则最终确定所述融合位姿可信,否则,最终确定所述融合位姿不可信
。6.
根据权利要求1所述的方法,其特征在于,在将所述融合位姿保存为所述机器人当前的有效位姿之前,还包括:在所述融合位姿可信时,根据规划的机器人的目标位姿及历史运动状态,确定当前位姿的合理范围;判断所述融合位姿是否处于所述当前位姿的合理范围内,若是,确定所述融合位姿合
理,执行将所述融合位姿保存为所述机器人当前的有效位姿的步...

【专利技术属性】
技术研发人员:赖嘉骏张圆吴嘉嘉李华清胡金水
申请(专利权)人:科大讯飞股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1