一种特征增强尺度自适应感知船舶检测方法技术

技术编号:30329462 阅读:14 留言:0更新日期:2021-10-10 00:31
本发明专利技术公开一种特征增强尺度自适应感知船舶检测方法,包括以下步骤:1、选取任意经典深度主干网络模型进行图像特征提取,在主干网络模型中加入特征增强模块,其次,在主干网络的部分输出特征后插入尺度自适应感知模块,并构建特征金字塔网络;将通过特征金字塔网络获得的多尺度特征输入至目标检测头部网络;2、构建目标检测头部网络求取回归信息、分类信息和中心度;3、构建损失求解函数对分类信息、回归信息和中心度进行求解,使用公开的船舶训练数据集,利用损失求解函数对所述深度网络模型进行参数学习;4、输入测试图像,通过训练后的所述深度网络模型,确定图像中不同种类船舶的位置与类别。本发明专利技术可以提高深度网络模型对不同尺度大小船舶的感知能力,在保证检测效率的同时进一步提高船舶检测性能。时进一步提高船舶检测性能。时进一步提高船舶检测性能。

【技术实现步骤摘要】
一种特征增强尺度自适应感知船舶检测方法


[0001]本专利技术涉及计算机视觉和深度学习等
,尤其涉及一种特征增强尺度自适应感知船舶检测方法。

技术介绍

[0002]实现海事监控图像中的船舶智能检测,实时直观地掌握各大港口、重点航道的海面环境动态,可以为航运安全监管提供有效的技术支持。传统船舶检测方法大致可以分为基于背景建模、基于目标建模以及基于视觉显著性分析三大类。基于背景建模的方法在风浪较大时很难对海上环境进行准确地建模描述。基于目标建模的方法对输入图像的特征描述较为敏感,当船舶外观发生较大变化求解鲁棒性较差。基于视觉显著性分析的方法在风浪较大情况下,由于背景区域中的海浪泡沫、船舶尾迹等也具有较高的视觉显著性,容易引起误检现象。
[0003]近年来,随着深度学习技术的蓬勃发展,基于深度学习的船舶检测方法获得更多的关注。这类方法大致可以分为基于区域提议和基于回归分析两类。基于深度学习的船舶检测方法通过利用复杂的网络模型提取更加丰富的船舶特征,获得了更高的检测精度。然而在实际应用中,由于船舶尺度多变,加上受复杂背景噪声干扰,现有方法存在一定的误检和漏检现象。

技术实现思路

[0004]本专利技术提供一种特征增强尺度自适应感知船舶检测方法,以克服上述技术问题。
[0005]本专利技术提供一种特征增强尺度自适应感知船舶检测方法,包括以下步骤:
[0006]步骤1、选取任意经典深度主干网络模型进行图像特征提取,在所述深度主干网络模型中加入特征增强模块来增大目标权重;在主干网络部分输出特征层后插入尺度自适应感知模块丰富模型的感受野;进一步,使用特征金字塔网络获得多尺度特征,将所述多尺度特征输入至目标检测头部网络;
[0007]步骤2、构建目标检测头部网络求取回归信息和分类信息,该网络由分类分支和回归分支构成,每个分支由4个卷积层组成,分别用于求取分类信息和回归信息;另将分类分支特征与回归结果特征经卷积相加融合后通过sigmoid求取权重,将权重与回归分支特征相乘求取中心度值;
[0008]步骤3、构建损失求解函数对分类信息、回归信息和中心度进行求解,使用公开的船舶训练数据集,利用损失求解函数对所述深度网络模型进行参数学习;
[0009]步骤4、输入测试图像,通过训练后的所述深度网络模型,确定图像中不同种类船舶的位置与类别。
[0010]进一步地,步骤1中所述深度网络模型可以采用任意经典深度网络模型;
[0011]所述特征增强模块包括:全局平均池化层、归一化层、1*1卷积层、relu激活层、sigmoid激活层。
[0012]进一步地,尺度自适应感知模块由3个分支组成,每个分支均依次由3个3*3卷积层和1个1*1卷积层组成,所述分支的扩展率分别为1、2、3,1*1卷积层用来求取每个分支贡献的权重,将最后一个3*3卷积层输出特征与求取的权重相乘即可得到该分支的输出特征;通过并行结构将不同分支提取的目标特征信息进行融合获得具有丰富感受野的特征。
[0013]进一步地,步骤2中构建目标检测头部网络,在所述多尺度特征后添加头部网络,所述头部网络包括:回归分支和分类分支。两个所述分支分别由4个3*3卷积组成;所述分类分支最后一个3*3卷积层输出特征和回归结果特征各经过1*1卷积层后进行相加,将融合特征通过sigmoid激活函数获得位置类别感知概率图,有效地结合分类与回归信息;所述回归分支最后一个3*3卷积层输出特征与位置类别感知概率图进行乘积操作,获取有效特征用于求取中心度值。
[0014]进一步地,步骤3中损失求解函数包括:用于分类运算的focal loss损失函数、用于回归分析的GIOU loss损失函数和用于中心度计算的交叉熵损失函数;
[0015]构建所述船舶检测网络模型引入的损失求解函数:
[0016][0017]其中,L(p,q,e)表示所述损失求解函数,p表示前向网络输出的分类分数,q表示前向网络预测的回归偏移值,e表示前向网络预测的中心度值,N
pos
表示正样本的数量,L
cls
表示focal loss损失,s
*
表示待检测层上每个位置上的分类标签,N
e
表示预测边框与真实标记框的中心度之和,L
reg
表示GIOU loss损失,为指示函数,当s
*
>0时,R=1否则R=0,q
*
表示预测边框与真实标记框的偏移值,L
centerness
表示二值交叉熵损失,e
*
用于度量预测边框与真实标记框的中心度。
[0018]本专利技术设计一种特征增强模块可以插入到任意经典深度网络模型中,增强深度卷积网络对海浪杂波等背景噪声干扰下的船舶特征描述力,设计一种尺度自适应感知模块,可以提高网络模型对不同尺度大小的船舶感知能力,在头部网络中改进中心度求取方式,通过融合分类分支信息与回归分支信息获取中心度值,在保证检测效率的同时进一步提高船舶检测性能。
附图说明
[0019]为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将结合实施例或现有技术描述中所需要使用的附图作进一步地介绍,显而易见地,下面描述中的附图是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0020]图1为本专利技术特征增强尺度自适应感知船舶检测方法整体流程图;
[0021]图2为本专利技术特征增强尺度自适应感知船舶检测方法网络结构示意图;
[0022]图3为本专利技术特征增强模块插入在主干网络中的结构示意图;
[0023]图4为应用本专利技术对SeaShips数据集的船舶检测结果示意图;
[0024]图5为应用本专利技术对新加坡海事数据集的船舶检测结果示意图。
具体实施方式
[0025]为使本专利技术实施例的目的、技术方案和优点更加清楚,下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0026]如图1所示,本实施例提供一种特征增强尺度自适应感知船舶检测方法,包括以下步骤:
[0027]步骤1、选取任意经典深度主干网络模型进行图像特征提取,在所述深度主干网络模型中加入特征增强模块来增大目标权重;在主干网络部分输出特征层后插入尺度自适应感知模块来丰富模型的感受野;进一步,搭建特征金字塔融合获得多尺度特征,进一步将特征金字塔网络获得多尺度特征输入至目标检测头部网络;
[0028]具体而言,如图2所示,对于输入图像采用任意深度主干网络进行特征提取,本专利技术中以残差网络ResNet

101为例进行解释说明:
[0029]其中,ResNet

10本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种特征增强尺度自适应感知船舶检测方法,其特征在于,包括以下步骤:步骤1、选取任意经典深度主干网络模型进行图像特征提取,在所述深度主干网络模型中加入特征增强模块;在主干网络部分输出特征层后插入尺度自适应感知模块;使用特征金字塔网络获得多尺度特征,将所述多尺度特征输入至目标检测头部网络;步骤2、构建目标检测头部网络求取回归信息和分类信息,该网络由分类分支和回归分支构成,每个分支由4个卷积层组成,分别用于求取分类信息和回归信息;并将分类分支特征与回归结果特征经卷积相加融合后通过sigmoid求取权重,将权重与回归分支特征相乘求取中心度值;步骤3、构建损失求解函数对分类信息、回归信息和中心度进行求解。使用公开的船舶训练数据集,利用损失求解函数对所述深度网络模型进行参数学习;步骤4、输入测试图像,通过训练后的所述深度网络模型,确定图像中不同种类船舶的位置与类别。2.根据权利要求1所述的方法,其特征在于,步骤1中所述深度网络模型可以采用任意经典深度网络模型;所述特征增强模块包括:全局平均池化层、归一化层、1*1卷积层、relu激活层、sigmoid激活层。3.根据权利要求1所述的方法,其特征在于,步骤1中所述尺度自适应感知模块由3个分支组成,每个分支均依次由3个3*3卷积层和1个1*1卷积层组成,所述分支的扩展率分别为1、2、3,1*1卷积层用来求取每个分支的贡献权重,将最后一个3*3卷积层输出特征与求取的权重相乘即可得到该分支的输出特征;通过并行结构将不同分支输出的目标特征信息进行融合获得具有丰富感受野的特征描述。4.根据权利要求1所述的方法,其特征在于,步骤2中构建目标...

【专利技术属性】
技术研发人员:姚婷婷张波李鹏飞柳晓鸣胡青
申请(专利权)人:大连海事大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1