一种基于深度学习的船舶图像目标检测方法技术

技术编号:26304977 阅读:39 留言:0更新日期:2020-11-10 20:01
本发明专利技术提供一种基于深度学习的船舶目标检测与识别方法,包括以下步骤:S1:搭建像素注意力模型,并对船舶图像进行预处理;S2:使用K‑Means聚类生成船舶锚定框,并对标签边界框进行转换;S3:搭建基于像素注意力模型的YOLOV3网络结构;S4:使用训练优化方法训练网络;S5:使用非极大值抑制算法对网络输出进行后处理,避免出现重复检测问题。本发明专利技术提供的基于深度学习的船舶目标检测与识别方法,能够在多种复杂背景与分辨率下对实现船舶目标检测与识别,在船舶工业与海事管理等领域有较好的使用前景。

【技术实现步骤摘要】
一种基于深度学习的船舶图像目标检测方法
本专利技术涉及一种深度学习及目标检测技术,尤其涉及一种基于深度学习的船舶图像目标检测方法,属于深度学习与计算机视觉领域的方法。
技术介绍
船舶目标检测与识别方法可以分为三种策略,包括端到端的网络结构、两阶段的网络结构和基于前两者改进的网络结构。对于端到端的船舶目标检测与识别网络结构,凌梓钦、ChangYang-Lang和王炳德分别直接使用YOLOV1、YOLOV2和YOLOV3网络实现船舶目标检测与识别,但是网络效果无法达到工程使用标准。夏烨等人使用SSD网络搭建了船舶目标检测与识别系统,在网络的检测精度上取得了一定提升,但是牺牲了网络的实时性。对于两阶段的船舶目标检测与识别网络结构,岳邦铮等人直接使用FasterR-CNN实现船舶目标检测与识别,网络表现比端到端的网络更差。YangXue等人提出了一种基于旋转锚定框的FasterR-CNN,该方法能更好地拟合不同角度的船舶目标,很好地解决了由传统锚定框机制引起的船舶目标角度与边界框角度不同的问题,但是网络的整体表现并没有改进。在网络结构的改进方面,于野等人针对端到端的FPN网络提出了A-FPN网络,并应用在船舶目标检测与识别中,相比于传统的FPN网络取得了更好的效果,但仍然无法达到工程使用的标准。ZhangRuiqian等人提出了一种两阶段的S-CNN网络结构。S-CNN由建议框检测网络和目标识别网络组成,其中的目标检测网络与R-CNN的目标检测网络结构基本相同。建议框检测网络的输入不只包含原始图像,还包含了边界线图和凸角图,这使得网络对于目标边界与棱角更为敏感。总的来说S-CNN可以看作为一种采用通用方法优化的R-CNN,它对于候选边界框的生成效果有较大的提升,但对于候选边界框内部图像的目标识别没有任何改进。
技术实现思路
本专利技术的目的是为了提供一种基于深度学习的船舶图像目标检测方法。本专利技术的目的是这样实现的:步骤如下:S1:通过像素注意力模型对船舶图像进行预处理;S2:通过K-Means聚类算法,生成9个船舶目标的锚定框;S3:搭建基于特征注意力模型的YOLOV3网络;S4:采用训练优化方法对网络进行训练;S5:通过非极大值抑制算法对网络输出进行后处理,避免重复检测,完成检测。本专利技术还包括这样一些结构特征:1.所述的步骤S1包括以下子步骤:S11:对训练集船舶图像进行归一化操作:Norm(x)=(x-E(x))/Stddev(x);式中:x为船舶图像,N为x的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;S12:读取训练集中的每一个船舶图像的船舶目标边界框信息,将边界框外的三个通道像素值置0,得到船舶图像的实蒙版图y;S13:搭建蒙版图的生成器网络和判别器网络;S14:定义损失函数为:LGL1=E(||y-G(x)||1)LGGAN(G(x),D(x,y))=-E(log(1-s)-D(x,G(x)))LG=LGL1+LGGAN(G(x),D(x,y))LD=-E(log(1-s)-D(x,y))-E(log(D(x,G(x))))式中:G(x)是生成器,D(x,y)是判别器,s为非线性补偿系数取值为0.2,LcL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;S15:对生成器输出的中间蒙版图进行灰化和开关处理:Gray(R,G,B)=(R×0.299+G×0.587+B×0.144)/255;式中:R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数取值为0.5,M是生成蒙版图,Gray为灰化函数,Switch为开关函数;S16:用x与M对应位置的蒙版值相乘,得到像素注意力模型的输出为:xM[i,j,k]=x[i,j,k]·M[i,j];式中:xM[i,j,k]为xM第i行第j列第k个颜色通道的像素值,x[i,j,k]为x第i行第j列第k个颜色通道的像素值,M[i,j]为第i行第j列的蒙版值。2.所述的步骤S2包括以下子步骤:S21:从边界框集合中随机选择9个边界框作为质心,每个质心代表一个锚定框类别;S22:为每一个质心设定类别,依次标记为1-9,并将质心除外的每一个边界框的类别设置为0;S23:遍历边界框集合中的每一个元素,计算其与每一个质心的欧几里得范数,并将其类别设置为范数最小的质心所对应的类别;S24:对每一个类别的所有边界框计算平均值,以该平均值作为虚拟质心;用新的虚拟质心替代原质心,并保存原质心;S25:计算每个类别原质心和新虚拟质心的欧几里得范数,若每个类别的质心范数值都小于给定收敛阈值1.5则执行S36;否则执行步骤S33;S26:将9个虚拟质心按照锚定框的面积大小从大到小排序,取前3个作为低分辨率的船舶目标锚定框,中间3个作为中分辨率的船舶目标锚定框,后3个作为高分辨率的船舶目标锚定框。3.所述的步骤S3包括以下子步骤:S31:去掉Darknet53网络的输出层,以此为主干网络搭建YOLOV3网络模型;S32:对Darknet53网络的三个分辨率输出分别搭建广度特征注意力模型和深度特征注意力模型,并以反向结构组合为三个分辨率的特征注意力模型;S33:将三个分辨率的像素注意力模型分别嵌入到Darknet53的三个分辨率输出处,得到基于特征注意力模型的YOLOV3网络;S34:基于聚类生成的船舶锚定框,将数据集的标签边界框转换为相对的形式:式中,W×H是船舶图像的分辨率,是锚定框的尺寸,对于第i个边界框xi、yi、wi和hi,其相对的坐标和尺寸为和S35:YOLOV3网络的边界框损失函数为:LD=LDC+LDS;式中,xi、yi、和是第i个标签边界框的相对坐标和尺寸信息;和是第i个预测边界框在第j个分辨率的相对坐标和尺寸信息,LDC为坐标损失函数,LDS为尺寸损失函数,LD为边界框损失函数;λcoord是用于调整船舶目标检测在损失函数所占的比重的参数;用于判断网格i中是否存在目标,存在时为1,不存在时为0;S36:YOLOV3网络的置信度损失函数为:LC=LCo+LCNO+LCC;式中,样本真实类别标签为C,真实置信度为P,预测类别标签为预测置信度为LCO为正样本置信度损失函数,LCNO为负样本置信度损失函数,LCC为类别损失函数,LC为置信度损失函数;λnoobj是用于减少无目标区域的损失对于训练过程贡献的参数;用于判断网格i中是否不存在目标,不存在时为1,存在时为0;S37:YOLOV3网络的损失函数本文档来自技高网
...

【技术保护点】
1.一种基于深度学习的船舶图像目标检测方法,其特征在于:步骤如下:/nS1:通过像素注意力模型对船舶图像进行预处理;/nS2:通过K-Means聚类算法,生成9个船舶目标的锚定框;/nS3:搭建基于特征注意力模型的YOLOV3网络;/nS4:采用训练优化方法对网络进行训练;/nS5:通过非极大值抑制算法对网络输出进行后处理,避免重复检测,完成检测。/n

【技术特征摘要】
1.一种基于深度学习的船舶图像目标检测方法,其特征在于:步骤如下:
S1:通过像素注意力模型对船舶图像进行预处理;
S2:通过K-Means聚类算法,生成9个船舶目标的锚定框;
S3:搭建基于特征注意力模型的YOLOV3网络;
S4:采用训练优化方法对网络进行训练;
S5:通过非极大值抑制算法对网络输出进行后处理,避免重复检测,完成检测。


2.根据权利要求1所述的一种基于深度学习的船舶图像目标检测方法,其特征在于:所述的步骤S1包括以下子步骤:
S11:对训练集船舶图像进行归一化操作:
Norm(x)=(x-E(x))/Stddev(x);



式中:x为船舶图像,N为x的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
S12:读取训练集中的每一个船舶图像的船舶目标边界框信息,将边界框外的三个通道像素值置0,得到船舶图像的实蒙版图y;
S13:搭建蒙版图的生成器网络和判别器网络;
S14:定义损失函数为:
LGL1=E(||y-G(x)||1)
LGGAN(G(x),D(x,y))=-E(log(1-s)-D(x,G(x)))
LG=LGL1+LGGAN(G(x),D(x,y))
LD=-E(log(1-s)-D(x,y))-E(log(D(x,G(x))))
式中:G(x)是生成器,D(x,y)是判别器,s为非线性补偿系数取值为0.2,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
S15:对生成器输出的中间蒙版图进行灰化和开关处理:
Gray(R,G,B)=(R×0.299+G×0.587+B×0.144)/255;



式中:R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数取值为0.5,M是生成蒙版图,Gray为灰化函数,Switch为开关函数;
S16:用x与M对应位置的蒙版值相乘,得到像素注意力模型的输出为:
xM[i,j,k]=x[i,j,k]·M[i,j];
式中:xM[i,j,k]为xM第i行第j列第k个颜色通道的像素值,x[i,j,k]为x第i行第j列第k个颜色通道的像素值,M[i,j]为第i行第j列的蒙版值。


3.根据权利要求1所述的一种基于深度学习的船舶图像目标检测方法,其特征在于:所述的步骤S2包括以下子步骤:
S21:从边界框集合中随机选择9个边界框作为质心,每个质心代表一个锚定框类别;
S22:为每一个质心设定类别,依次标记为1-9,并将质心除外的每一个边界框的类别设置为0:
S23:遍历边界框集合中的每一个元素,计算其与每一个质心的欧几里得范数,并将其类别设置为范数最小的质心所对应的类别;
S24:对每一个类别的所有边界框计算平均值,以该平均值作为虚拟质心;用新的虚拟质心替代原质心,并保存原质心;
S25:计算每个类别原质心和新虚拟质心的欧几里得范数,若每个类别的质心范数值都小于给定收敛阈值1.5则执行S36;否则执行步骤S33;
S26:将9个虚拟质心按照锚定框的面积大小从大到小排序,取前3个作为低分辨率的船舶目标锚定框,中间3个作为中分辨率的船舶目标锚定框,后3个作为高分辨率的船舶目标锚定框。


4.根据权利要求1所述的一种基于深度学习的船舶图像目标检测方法,其特征在于:所述的步骤S3包括以下子步骤:
S31:去掉Darknet53网络的输出层,以此为主干网络搭建YO...

【专利技术属性】
技术研发人员:孟浩魏宏巍袁菲闫天昊周炜昊邓艳琴
申请(专利权)人:哈尔滨工程大学
类型:发明
国别省市:黑龙江;23

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1