【技术实现步骤摘要】
一种人手
‑
机器人接触状态检测系统及方法
[0001]本专利技术涉及一种人手
‑
机器人接触状态检测系统和方法,属于人机互动领域。
技术介绍
[0002]工业机器人可以长时间、高精度、高效率工作,受当前机器人编程方法限制,仍需工作人员与机器人共同工作进行人机交互。工作人员与机器人共享同一工作空间,为保证操作者的安全,需要准确判断人手与机器人的接触状态。
[0003]基于视觉的人手与机器人的接触检测方法具有成本低、便于部署、灵活的优点,但是存在检测目标被遮挡的问题。目前通常通过在多角度拍摄目标再融合所得的不同角度的目标图像,获得完整的三维模型图像。如,专利CN109255813B《一种面向人机协作的手持物体位姿实时检测方法》中“仅通过一幅深度图像,总会由于存在不同程度的遮挡,无法得到物体各个面的三维点云信息。因此,我们采取多角度拍摄物体各个局部的深度图像,再按照各部分所表示的物体实际位置进行对齐合并,最终得到物体完整的三维模型图像。”但该方法所需计算量大、对摄像装置需求大、成本高;且部 ...
【技术保护点】
【技术特征摘要】
1.一种人手
‑
机器人接触状态检测方法,其特征在于,包括以下步骤:S1、构建物理场景和虚拟场景,所述物理场景包括彩色相机、深度相机、第一目标和第二目标,所述虚拟场景包括虚拟相机和虚拟第二目标模型,所述第二目标和虚拟第二目标模型运动状态一致;S2、通过彩色相机和深度相机,分别获取包含第一目标和被第一目标遮挡的第二目标的彩色图像和深度图像;S3、通过虚拟相机,获取包含虚拟第二目标模型的合成深度图像;S4、根据所述彩色图像和深度图像,计算第一目标在深度像素坐标系中的深度像素坐标p
′
(u
d
,v
d
);S5、计算所述深度像素坐标p
′
(u
d
,v
d
)在深度相机坐标系中的三维坐标P
e
(x
e
,y
e
,z
e
);S6、将所述深度像素坐标p
′
(u
d
,v
d
)映射至合成深度图像中,得到合成深度像素坐标p
′
v
(u
d
,v
d
);S7、计算所述合成深度像素坐标p
′
v
(u
d
,v
d
)在虚拟相机坐标系中的三维坐标P
v
(x
v
,y
v
,z
v
);S8、根据三维坐标P
e
(x
e
,y
e
,z
e
)和三维坐标P
v
(x
v
,y
v
,z
v
),判断第一目标和第二目标是否接触。2.根据权利要求1所述的一种人手
‑
机器人接触状态检测方法,其特征在于,所述步骤S4具体为:检测第一目标在彩色图像中的彩色像素坐标p(u
c
,v
c
);根据彩色像素坐标系与深度像素坐标系之间的映射关系,计算第一目标在深度像素坐标系中的深度像素坐标p
′
(u
d
,v
d
)。3.根据权利要求1所述的一种人手
‑
机器人接触状态检测方法,其特征在于,所述步骤S5具体为:根据深度相机的内参矩阵M
d
计算深度像素坐标在深度相机坐标系中的三维坐标P
e
(x
e
,y
e
,z
e
)。4.根据权利要求1所述的一种人手
‑
机器人接触状态检测方法,其特征在于,所述步骤S7具体为:利用深度相机内参矩阵M
d
计算合成深度像素坐标p
′
v
(u
d
,v
d
)在虚拟相机坐标系下三维坐标P
v
(x
v
,y
v
,z
v
)。5.根据权利要求1所述的一种人手
‑
机器人接触状态检测方法,其特征在于,深度相机对于第二目标的相对位姿与虚拟相机对于虚拟第二目标模型的相对位姿一致;所述步骤S8具体为:计算三维坐标P
e
(x
e
,y
e
,z
e
)与三维坐标P
v
(x
v
,y
v
,z
v
)之间的距离d(P
e
,P
v
);若d(P
e
,P
v
)小于预设阈值,则认为第一目标与第二目标发生接触。6.根据权利要求1所述的一种人...
【专利技术属性】
技术研发人员:陈成军,潘勇,李东年,郭阳,官源林,张庆海,赵正旭,
申请(专利权)人:青岛理工大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。