当前位置: 首页 > 专利查询>东北大学专利>正文

一种基于改进的YOLO6D算法的位姿估计系统及方法技术方案

技术编号:30162087 阅读:22 留言:0更新日期:2021-09-25 15:16
本发明专利技术提供了一种基于改进的YOLO6D算法的位姿估计系统及方法,涉及计算机视觉技术领域。该系统包括视觉传感器、客户端和服务器端。使用该系统的基于改进的YOLO6D算法的位姿估计方法包括如下步骤:采集包含目标物体的原始图像;对包含目标物体的原始图像进行处理得到边缘清晰的目标物体图像;构建YOLO6D模型的训练数据集;对YOLO6D模型进行改进,包括:为对称目标物体和非对称目标物体定义两种不同的损失函数;利用所述训练数据集对改进的YOLO6D模型进行训练,获得位姿估计模型;利用所述姿态估计模型实时估计图像中目标物体的位姿。该系统及方法可提高对称物体的位姿估计准确率、可防止过拟合、降低了对外部设备的性能要求。降低了对外部设备的性能要求。降低了对外部设备的性能要求。

【技术实现步骤摘要】
一种基于改进的YOLO6D算法的位姿估计系统及方法


[0001]本专利技术涉及计算机视觉
,特别是涉及一种基于改进的YOLO6D算法的位姿估计系统及方法。

技术介绍

[0002]位姿估计是指利用视觉传感器获取的信息,从中估计目标物体与传感器之间的距离与姿态。它不仅需要对图像中的目标物体进行定位,还需要检测目标物体在三维空间中的旋转自由度。该技术目前主要的应用领域是增强现实领域,随着计算机视觉与地图构建(SLAM)技术的日益发展,基于视觉的位姿估计方法在增强现实系统开发中的应用越来越广泛。
[0003]目前,位姿估计方法主要分为基于关键点与模版匹配的方法和基于深度学习的方法。基于关键点与模版匹配的方法对光线较为敏感,且无法处理物体间有遮挡的问题,对检测环境要求较为苛刻。
[0004]为克服这些位姿估计中存在的问题,应用上主流的是采用基于深度学习的位姿估计方法。基于深度学习的位姿估计一般分为单阶段检测算法和双阶段检测算法两类。双阶段检测虽然检测准确度较高,但受限于检测步骤的多阶段,速度较慢。在增强现实领域对实时性要求较高,因此单阶段检测算法更适用于此领域。单阶段检测算法也被称为基于回归分析的检测算法,其将检测问题视为对目标位置和类别信息的回归分析问题,通过一个神经网络模型可直接输出检测结果。随着单阶段检测算法的发展,目前的单阶段的目标检测算法在保持速度优势的同时,检测精度也达到了双阶段目标检测的水平。
[0005]YOLO6D属于一种基于深度学习的单阶段检测算法,因其具有强大的特征抽象与表达能力,在各种计算机视觉识别任务上表现出色。但在实际应用中,YOLO6D检测算法也遇到了很多挑战,比如模型训练所需的数据量不够、数据集标注不完整,识别场景中有复杂背景干扰,因损失函数在取得同一个值时存在多个不同的旋转四元数,在网络训练时带来震荡而使对称目标物体不好识别等问题。

技术实现思路

[0006]针对现有技术存在的问题,本专利技术提供一种基于改进的YOLO6D算法的位姿估计系统及方法。
[0007]本专利技术的技术方案为:
[0008]一种基于改进的YOLO6D算法的位姿估计系统,所述系统包括:
[0009]视觉传感器,用于实时采集目标物体的图像,并将图像发送给客户端;
[0010]客户端,用于实时捕获图像并发送给服务器端,以及接收服务器端发送的目标物体位姿估计结果;
[0011]服务器端,用于构建YOLO6D模型的训练数据集;对YOLO6D模型进行改进;利用所述训练数据集对改进的YOLO6D模型进行训练,获得位姿估计模型;利用所述姿态估计模型实
时估计图像中目标物体的位姿,并将目标物体位姿估计结果发送给客户端。
[0012]进一步地,根据所述的基于改进的YOLO6D算法的位姿估计系统,所述视觉传感器是单目摄像机。
[0013]使用所述的基于改进的YOLO6D算法的位姿估计系统的基于改进的YOLO6D算法的位姿估计方法,包括以下步骤:
[0014]采集包含目标物体的原始图像;
[0015]对包含目标物体的原始图像进行处理得到边缘清晰的目标物体图像;
[0016]构建YOLO6D模型的训练数据集;
[0017]对YOLO6D模型进行改进,包括:为对称目标物体和非对称目标物体定义两种不同的损失函数;
[0018]利用所述训练数据集对改进的YOLO6D模型进行训练,获得位姿估计模型;
[0019]利用所述姿态估计模型实时估计图像中目标物体的位姿。
[0020]进一步地,根据所述的基于改进的YOLO6D算法的位姿估计方法,所述构建YOLO6D模型的训练数据集的方法为:对公开的位姿估计数据集进行数据量扩充,获得新的位姿估计数据集;自制虚拟数据集;将新的位姿估计数据集和虚拟数据集进行整合,从整合后的数据集中划分出若干图像作为训练数据集。
[0021]进一步地,根据所述的基于改进的YOLO6D算法的位姿估计方法,所述对公开的位姿估计数据集进行数据量扩充的方法为:根据数据集中提供的掩模提取目标物体的图像像素,做换背景操作,将目标物体的图像像素粘贴到不包含目标物体仅包含复杂背景的其他若干图片上,并对换背景操作之后的若干图片进行数据增强得到新的若干图片,增添到位姿估计数据集中,实现对公开的位姿估计数据集的数据量扩充。
[0022]进一步地,根据所述的基于改进的YOLO6D算法的位姿估计方法,所述公开的位姿估计数据集为LineMod数据集。
[0023]进一步地,根据所述的基于改进的YOLO6D算法的位姿估计方法,所述自制虚拟数据集的方法为:通过Perception Package工具合成包含目标物体且具有复杂背景的若干RGB图片,并为每一幅图片设置对应的标注信息,获得虚拟数据集;所述标注信息包括:目标物体的空间信息和类别信息。
[0024]进一步地,根据所述的基于改进的YOLO6D算法的位姿估计方法,所述对YOLO6D模型进行改进,包括:为对称目标物体和非对称目标物体定义两种不同的坐标损失函数。
[0025]进一步地,根据所述的基于改进的YOLO6D算法的位姿估计方法,非对称目标物体的坐标损失函数计算公式如下:
[0026][0027]其中,n是待估计位姿的图像的像素数量;M是带有标注的图像中包含目标物体的像素;I
i
为待估计位姿的图像的第i个像素;为数据集中的带有标注的图像的第i个像素;α为不小于1的因子;
[0028]对称目标物体的坐标损失函数计算公式如下:
[0029]L=minL
coo
(I,R
P
I
gt
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(5)
[0030]其中,R
P
是一个位姿到对称位姿的转换;I为待估计位姿的图像;I
gt
为带有标注的
图像。
[0031]本专利技术提出的基于YOLO6D的位姿估计系统及方法,与现有技术相比较具有如下有益效果:
[0032]1)扩充了位姿估计模型训练所用到的数据集防止过拟合。基于深度学习的位姿估计模型的训练需要大量完整标注的数据,如何增大数据集是一个需要解决的问题。在本专利技术方法中一方面是通过Perception Package工具合成包含目标检测物体且具有复杂背景的RGB图片,自制虚拟数据集,另一方面对公开的LineMod数据集中的真实图片通过增加抖动因子,随机选择亮度、色调、饱和度等方法进行图像扩充,最后对虚拟数据集和扩充的真实数据集进行整合增大了数据集数据量,防止过拟合。
[0033]2)提高了对于对称物体的估计准确率。训练改进的YOLO6D模型,网络的最后一层使用softmax函数,以输出目标类别概率,以及角点在平面上的坐标还有整个置信度得分。在训练阶段,为对称物体和非对称物体定义两种不同的损失函数,使用候选对称位姿中误差最小的本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于改进的YOLO6D算法的位姿估计系统,其特征在于,所述系统包括:视觉传感器,用于实时采集目标物体的图像,并将图像发送给客户端;客户端,用于实时捕获图像并发送给服务器端,以及接收服务器端发送的目标物体位姿估计结果;服务器端,用于构建YOLO6D模型的训练数据集;对YOLO6D模型进行改进;利用所述训练数据集对改进的YOLO6D模型进行训练,获得位姿估计模型;利用所述姿态估计模型实时估计图像中目标物体的位姿,并将目标物体位姿估计结果发送给客户端。2.根据权利要求1所述的基于改进的YOLO6D算法的位姿估计系统,其特征在于,所述视觉传感器是单目摄像机。3.使用权利要求1所述的基于改进的YOLO6D算法的位姿估计系统的基于改进的YOLO6D算法的位姿估计方法,其特征在于,所述方法包括以下步骤:采集包含目标物体的原始图像;对包含目标物体的原始图像进行处理得到边缘清晰的目标物体图像;构建YOLO6D模型的训练数据集;对YOLO6D模型进行改进,包括:为对称目标物体和非对称目标物体定义两种不同的损失函数;利用所述训练数据集对改进的YOLO6D模型进行训练,获得位姿估计模型;利用所述姿态估计模型实时估计图像中目标物体的位姿。4.根据权利要求3所述的基于改进的YOLO6D算法的位姿估计方法,其特征在于,所述构建YOLO6D模型的训练数据集的方法为:对公开的位姿估计数据集进行数据量扩充,获得新的位姿估计数据集;自制虚拟数据集;将新的位姿估计数据集和虚拟数据集进行整合,从整合后的数据集中划分出若干图像作为训练数据集。5.根据权利要求4所述的基于改进的YOLO6D算法的位姿估计方法,其特征在于,所述对公开的位姿估计数据集进行数据量扩充的方法为:根据数据集中提供的掩模提取目标物体的图像像素,做换背景...

【专利技术属性】
技术研发人员:张楚宁高天寒江欣蓓
申请(专利权)人:东北大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1