【技术实现步骤摘要】
一种面向物体位姿估计的合成数据模板库生成方法
[0001]本专利技术属于计算机视觉
,具体涉及一种面向物体位姿估计的合成数据模板库生成方法。
技术介绍
[0002]物体位姿估计是计算机视觉领域的热点研究问题,依据其实现方式主要可分为基于关键点的物体位姿估计、基于坐标的物体位姿估计和基于模板的物体位姿估计。物体位姿估计在机器人抓取、泛虚拟现实等领域有着广泛的应用,例如在工业上,机械臂通过预测工业零件的位姿信息进行目标物体的抓取;在泛虚拟现实领域,依据真实物体的位姿信息进行虚拟模型的叠加。
[0003]常见的目标物体如螺丝、扳手等均为弱纹理物体,而基于关键点和基于坐标的物体位姿估计不能准确地预测弱纹理物体的位姿信息,因此对于弱纹理物体的位姿估计常使用基于模板的位姿估计方法进行预测。其中,模板库的生成是至关重要的,能够直接影响弱纹理物体位姿估计的准确率。因此需要一种方法来生成有效的模板库,来更好地解决弱纹理物体的位姿估计任务。
[0004]模板库的生成主要分为:目标图像生成、目标模板生成和图像
‑r/>模板匹配三个步本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种面向物体位姿估计的合成数据模板库生成方法,其特征在于,包括:步骤1:通过LineMOD Occlusion数据集进行合成场景的搭建;步骤2:基于斐波那契网格的相机视点生成方法生成目标图像与目标模板;步骤3:基于动态放大的区域剪裁算法来实现目标区域的获取;步骤4:将获取到的目标图像和目标模板的路径名称、文件名称按顺序写入.txt文件中并保存,形成图像
‑
模板匹配,生成最终的模板库。2.根据权利要求1所述的一种面向物体位姿估计的合成数据模板库生成方法,其特征在于,所述步骤1包括:步骤1.1:基于MeshLab提取LineMOD Occlusion数据集中目标物体3D模型的纹理信息;步骤1.2:将纹理信息与3D模型一同导入至Unity中获得带有纹理信息的目标物体3D模型;步骤1.3:以目标物体3D模型为中心,设置8个线性光源对目标物体3D模型实现光照;步骤1.4:利用Unity Perception中的Perception Camera的脚本对相机进行绑定,完成合成场景的搭建。3.根据权利要求1所述的一种面向物体位姿估计的合成数据模板库生成方法,其特征在于,所述步骤2包括:步骤2.1:将目标物体3D模型放入新建空白场景中,调整相机位置和目标物体3D模型的位置,使相机位于目标物体的正上方;步骤2.2:基于斐波那契网格计算球体表面采样点,具体公式为:其中,n为采样点,N为采样点的总数,x
n
、y
n
、z
n
分别为第n个采样点的对应坐标轴坐标,R为要采样球体的半径;步骤2.2:在每一帧中均读取虚拟相机位置,更改虚拟相机位置为步骤2.2计算所得采样点位置;步骤2.3:设置虚拟相机旋转角度;步骤2.4:利用步骤2.2获取到的相机视角对模型进行不同角度的采集,分别保存为目标模板和目标图像。4.根据权利要求3所述的一种面向物体位姿估计的合成数据模板库生成方法,其特征在于,所述步骤2.3具体表述为:获取虚拟相机和目标物体3D模型坐标,并计算虚拟相机指向目标物体3D模型的向量;在Unity中,虚拟相机的视野指向为其Z轴方向,故通过调用在世界坐标系下指向自身前方的函数transform.forward保证虚拟相机的始终指向目标物体3D模型,实现相机旋转角度的设定。5.根据权利要求3所述的一种面向物体位姿估计的合成数据模板库生成方法,其特征在于,所述步骤2.4具体表述为:
步骤2.4.1:目标模板生成,使用Unity Perception中的语义分割标注和目标检测标注作为标...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。