一种自主水下机器人回收对接中目标检测方法技术

技术编号:27842765 阅读:32 留言:0更新日期:2021-03-30 12:36
本发明专利技术公开了一种自主水下机器人回收对接中目标检测的方法,提供了一种水下机器人对目标识别与定位的方法。整个流程包括双目相机标定、图像预处理,目标检测和立体匹配四部分。在图像预处理方面,利用一种新型的水下图像增强算法通过景深与梯度信息将图像中物体与水体区分开,利用背景光与物体的非相关性有效计算背景光,提高图像对比度。在目标检测方面,利用YOLOv4算法对图片进行目标检测,对每个图片进行目标识别,并摘取其目标框图片,大大减少后续计算量。对立体匹配算法SGBM算法利用最小二乘法拟合插值法进行优化,对其基本视差图中仍存在的错误和无效值进行改善,提高匹配结果的精度。的精度。的精度。

【技术实现步骤摘要】
一种自主水下机器人回收对接中目标检测方法


[0001]本专利技术涉及一种自主水下机器人,尤其涉及一种自主水下机器人回收对接中 目标检测的方法,属于机器人


技术介绍

[0002]人类进入21世纪,将会迎来人口膨胀、资源短缺、环境恶化等三大问题, 面对这些问题,人们需要向海洋拓展活动空间。经调查,人类对海洋的探测只完 成了5%,还有95%的海域没有探测过,海洋又因其通透性和天然地理格局成为重 要的国防屏障,受到世界各国的高度重视,在未来海洋将会是科学和技术创新的 重要舞台。
[0003]作为在复杂海洋环境下执行任务的重要工具,水下航行器不仅在军事上用作 水下搜索、通信、监视、侦察等任务,在民用和科学研究中也被用于海底探测、 绘制海底地图等。水下航行器在执行任务时,良好的环境感知能力有助于提高其 安全性和自主能力。双目立体视觉(Binocular Stereo Vision)作为机器视觉的 一种重要形式,它通过利用不同相机从不同方位拍摄目标获得多幅图像,通过计 算目标对应点的视差,得到目标的三维信息。相比于常见的单目相机和RGB

D相 机(水下失效),双目相机能够更好的进行环境的三维重建和目标定位,同时,相 对于价格高昂的声纳系统,双目相机价格便宜、易于维护,对节约成本具有较大 帮助,是航行器近距离环境感知的理想装置。
[0004]水下目标识别对于海洋资源开发、海洋环境监测、海洋军事应用等具有重大 意义。在实际应用中,由于水下环境的复杂性,增加了水下目标的检测难度, 双目视觉摄像机作为无人自主水下机器人的眼睛,对于其实现避障,导航,水下 信息探测等功能都有着不可取代的作用。除此之外,由于水下运动物体有可能是 我们感兴趣的目标或者成为水下机器人的潜在威胁,因而对运动物体进行准确有 效的目标识别与定位对水下机器人执行对应的探测任务和确保水下机器人的安 全航行都有着非常重要的意义。
[0005]由于海洋复杂成像环境导致光视觉系统获取到的水下图像严重退化(水下图 像的衰退主要包括:光线吸收导致的颜色偏差,光线前向散射导致的细节模糊和 光线后向散射造成的低对比度),出现颜色衰退、对比度低以及细节模糊等现象。 针对此现象,采用一种基于主动光照的图像增强方法,提高对比度,矫正颜色。
[0006]在众多图像的检测、识别算法中,卷积神经网络(convolutionalneuralnetwork,CNN)表现尤为突出。卷积神经网络是通过端到端的方法进行训练的机 器学习模型,该模型采用梯度下降法来对参数进行调节。模型首先需要在特定数 据集上进行训练,在训练过程中,模型可以逐渐学习提取图像目标特征,最后利 用提取的特征完成图像分类、目标检测或语义分割等任务。王硕红等提出基于尺 度空间法的卷积神经网络目标识别算法,该算法在目标检测准确率方面优于传统 算法,但其检测实时性较差,并且对复杂环境下水下目标的检测准确率有待进一 步提高。
[0007]申请号为“CN202010432897”的专利文献公开了“一种基于卷积神经网的 水下目标被动检测方法”致力于挖掘深层信息,但增加了卷积神经网络的复杂度。 针对以上存在
的水下复杂环境中目标检测准确率低、实时性差的问题,本专利技术采 用速率较快且对硬件要求低的YOLOv4(YOU ONLY LOOK ONCE)进行目标检测, 申请号为“CN202010823924.7”的专利文献公开了“一种基于双目视觉的车辆路 面高度识别系统”其中的半全局立体匹配方法,在视差图计算中会丢失图像信息, 以及模糊等问题,本专利技术针对此立体匹配方法进行了相关优化。

技术实现思路

[0008]本专利技术的目的在于提供一种自主水下机器人回收对接中目标检测的方法,提 供一种基于YOLOv4(YOU ONLY LOOK ONCE)目标检测方法,来进行水下目标特 征提取与识别,从而实现水下目标检测与定位,应用于全驱动自主水下机器人回 收控制过程,提供水下自主机器人回收过程中路径规划所需要的环境信息,为后 续的路径规划与避障提供必要的先验知识。
[0009]本专利技术的目的通过以下技术方案予以实现:
[0010]一种自主水下机器人回收对接中目标检测的方法,包括以下步骤:
[0011]⑴
对水下摄像机进行标定,得到摄像机内参数矩阵、畸变系数矩阵、本征 矩阵、基础矩阵、旋转矩阵以及平移矩阵,采集水下视频并进行存储;
[0012]⑵
对视频进行处理得到帧图,采用基于主动光照的图像增强的方法对得到 的图像进行预处理,减小水对光成像的影响;
[0013]⑶
基于YOLOv4网络目标检测的方法,对图像进行目标识别,根据其预选框 对图进行根据最小二乘拟合插值法优化后的SGBM (Semi

Global

BlockMatching)算法进行立体匹配;
[0014]⑷
得到图像的类别与图像的位置信息。
[0015]本专利技术的目的还可以通过以下技术措施来进一步实现:
[0016]前述自主水下机器人回收对接中目标检测的方法,其中采用基于主动光照的 图像增强的方法对图像进行预处理,包括以下步骤:
[0017]①
利用景深将图像分为前景与背景区域;
[0018]②
在景深的基础上,根据物体与水体的梯度信息把物体与水体分割开;
[0019]③
选择水体无穷远处与物体非相关性较低的像素点作为背景光估计;
[0020]④
利用红色逆通道法求出R、G、B三个通道的透射率;
[0021]⑤
得到背景光与透射率之后,根据式
[0022]I
c
(x)=J
c
(x)
·
t
c
(x)+B
∞c
[1

t
c
(x)]ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(1)
[0023]其中t
c
(x)是透射率,I
c
(x)代表经过图像衰减过后相机得到的图像,B
∞c
表示 背景光,J
c
(x)是去散射后的图像;
[0024]⑥
利用探测出的灰色像素的特性估计并去除人造光源的颜色增益;
[0025]⑦
补偿光从光源发出到物体表面的传播过程中的衰减,校正色差。
[0026]前述自主水下机器人回收对接中目标检测的方法,其中基于YOLOv4目标检 测的方法,对图像进行目标识别,包括以下步骤:
[0027]①
下载Darknet,利用Cmake进行编译,修改Makefile配置项;
[0028]②
根据双目摄像机获得的图片信息,对图片进行标注。
[0029]③
建立网络结构,网络结构基于YOLOv4网络,以CSPdarknet53作为主干网 络,空间金字塔池化模块和路径聚合网本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种自主水下机器人回收对接中目标检测方法,其特征在于,该方法包含下列步骤:S1对水下摄像机进行标定,得到摄像机内参数矩阵,畸变系数矩阵,本征矩阵,基础矩阵,旋转矩阵以及平移矩阵,采集水下视频并进行存储;S2对视频进行处理得到帧图,采用基于主动光照的新型图像增强的方法对得到的图像进行预处理,利用背景光与物体的非相关性有效计算背景光,提高图像对比度;S3基于YOLOv4网络目标检测的方法,对图像进行目标识别,根据其预选框对图像根据最小二乘拟合插值法优化后的SGBM算法进行立体匹配;S4对图像进行的采用最小二乘拟合插值法优化后的SGBM立体匹配方法进行立体匹配,得到图像的类别与图像的位置信息。2.如权利要求1所述的自主水下机器人回收对接中目标检测方法,其特征在于,所述利用主动光照的图像增强方法对图像进行预处理,其步骤包括:

利用景深将图像分为前景与背景区域;

在景深的基础上,根据物体与水体的梯度信息把物体与水体分割开;

选择水体无穷远处与物体非相关性较低的像素点作为背景光估计;

利用红色逆通道法求出R、G、B三个通道的透射率;

得到背景光与透射率之后,根据式I
c
(x)=J
c
(x)
·
t
c
(x)+B
∞c
[1

t
c
(x)]
ꢀꢀꢀꢀ
(1)其中t
c
(x)是透射率,I
c
(x)代表经过图像衰减过后相机得到的图像,B
∞c
表示背景光,J
c
(x)是去散射后的图像;

利用探测出的灰色像素的特性估计并去除人造光源的颜色增益;

补偿光从光源发出到物体表面的传播过程中的衰减,校正色差。3.如权利要求1所述的自主水下机器人回收对接中目标检测方法,其特征在于,所述第三步基于YOLOv4目标检测的方法,对图像进行目标识别,其步骤包括:

下载Darknet,利用Cmake进行编译,修改Makefile配置项;

根据双目摄像机获得的图片信息,对图片进行标注;

建立网络结构,网络结构基于YOLOv4网络,以CSPdarknet53作为主干网络,空间金字塔池化模块和路径聚合网络模块作为颈部,YOLOV3作为头部预测输出;

设置每批次送入网络的图片数batch=64,每张图...

【专利技术属性】
技术研发人员:曾庆军郭雨青戴晓强朱志宇
申请(专利权)人:江苏科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1