【技术实现步骤摘要】
基于关键点映射的无纹理高反物体位姿估计方法及系统
[0001]本专利技术属于视觉感知
,具体涉及一种基于关键点映射的无纹理高反物体位姿估计方法及系统。
技术介绍
[0002]位姿估计旨在基于视觉图像信息,计算输出目标物体在相机坐标系中的位置及姿态等六自由度空间状态参数。该技术是以计算机视觉为基础的环境及对象感知领域中的重要技术组成,在机器人抓取,自动驾驶,增强现实等领域都有广泛的应用。
[0003]目前位姿估计方法多依赖于端到端深度学习模型,需要构建大型位姿数据集对模型进行训练,位姿估计效果受制于数据集的泛化性,且无法在复杂场景中实现快速应用,部署成本高。针对非端到端模型,现有方法主要以物体局部或全局结构为对象,采用深度学习或传统特征提取方式,对图像或点云数据进行特征迭代匹配来实现位姿估计,这类方法针对较大型物体时,往往出现计算量大,实时性差等问题,针对较小物体时,会因采样点云等数据量小而导致位姿估计结果较差,尤其针对表面无纹理且高反光物体,如机械加工零件时,其表面点云极易因光照而产生空洞,数据误差大,导致无法
【技术保护点】
【技术特征摘要】
1.基于关键点映射的无纹理高反物体位姿估计方法,其特征在于,包括以下步骤:S1、将包含目标物体的RGB图像输入目标检测网络模型中,得到目标物体的类别属性及目标物体在RGB图像中的2D包围框像素区域;S2、根据步骤S1得到的目标物体在RGB图像中的2D包围框像素区域,从原始RGB图像中裁剪得到目标物体所属局部区域图像,并对目标物体局部区域图像中各边缘轮廓进行亮化增强;S3、将步骤S2亮化增强后目标物体局部区域图像输入关键点检测网络模型中,检测得到目标物体上预设的多个关键点在RGB图像上的2D像素坐标;S4、获取各预设关键点在物体建模坐标系下的3D空间坐标,对应步骤S3得到的关键点在RGB图像上的2D像素坐标构成多组2D
‑
3D坐标点对,依据多组2D
‑
3D坐标点对关系及相机内参数矩阵,基于PNP算法计算得到物体模型坐标系相对于相机坐标系的旋转变换矩阵,完成目标物体在相机坐标下的位姿估计。2.根据权利要求1所述的基于关键点映射的无纹理高反物体位姿估计方法,其特征在于,步骤S1具体为:S101、采集包含目标物体的RGB图像,构建目标检测训练及测试数据集,并通过旋转,缩放,镜像转换操作对数据集进行扩充;S102、以目标物体为对象,依据目标检测任务中类别及2D包围框结果数据格式,对步骤S101得到的训练及测试数据集进行标注;S103、利用步骤S102标注的训练及测试数据集对预定义的目标检测网络模型进行数据训练及测试;S104、获取相机实时输入的RGB图像,然后输入步骤S103训练好的目标检测网络模型,输出目标物体的类别属性及目标物体在RGB图像中的2D包围框像素区域。3.根据权利要求3所述的基于关键点映射的无纹理高反物体位姿估计方法,其特征在于,步骤S101中,目标物体RGB图像的分辨率为640
×
480,数据集中每类目标物体图像数不少于200,训练集与测试集按8:2划分,以图像中心为原点,基于固定角度间隔对图像进行旋转,基于固定比例大小对图像进行缩放,以及对图像进行镜像翻转,固定角度间隔为30度,固定比例大小为1.2。4.根据权利要求1所述的基于关键点映射的无纹理高反物体位姿估计方法,其特征在于,步骤S2具体为:S201、根据检测得到的目标物体2D包围框,从原始RGB图像中裁剪得到目标物体所属像素区域的局部区域图像;S203、对步骤S201得到的局部区域图像做灰度化处理,从RGB三通道色彩空间转换到灰度单通道色彩空间;S203、对步骤S203灰度化处理后的局部区域图像做双边滤波处理,保留图像边缘,消除图像中的不连续纹理细节;S204、采用拉普拉斯核对步骤S203双边滤波后的灰度图像进行锐化处理,得到拉普拉斯图像,拉普拉斯图像的高亮部分表现为图像边缘;S205、将步骤S204得到的拉普拉斯图像转换至RGB空间,并与原目标物体局部图像相加,实现对目标局部图像的亮化增强。
5.根据权利要求4所述的基于关键点映射的无纹理高反物体位姿估计方法,其特征在于,步骤S203中,经双边滤波后输出的图像像素值g(x,y)为:其中,S(i,j)为以(i,j)为中心的邻域像素范围,f(k,l)为邻域范围内输入的灰度图像像素...
【专利技术属性】
技术研发人员:赵飞,张倚华,陈泽豫,梅雪松,
申请(专利权)人:西安交通大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。