当前位置: 首页 > 专利查询>海南大学专利>正文

一种基于双注意力机制多源融合的水上目标检测方法技术

技术编号:35915981 阅读:59 留言:0更新日期:2022-12-10 10:57
本发明专利技术涉及一种多源传感器信息融合的目标检测方法,具体涉及一种基于双注意力机制多源融合的水上目标检测方法,包括:构建雷达图像生成模型和特征提取模型,并生成2D注意力矩阵;构建视觉图像特征提取模型,得到视觉特征图;将所述2D注意力矩阵沿视觉特征图所有通道重新加权,生成融合特征图;将所述融合特征图输入目标检测网络FasterRCNN。本发明专利技术可以充分利用雷达和视觉传感器互补的信息,提升网络的精度和目标检测的准确度;有效解决水上目标在图像中权重降低以及微小目标检测性能低的问题。题。题。

【技术实现步骤摘要】
一种基于双注意力机制多源融合的水上目标检测方法


[0001]本专利技术涉及一种多源传感器信息融合的目标检测方法,尤其涉及一种基于双注意力机制多源融合的水上目标检测方法。

技术介绍

[0002]对于自动驾驶来讲,可靠的感知周围环境非常重要。目前自动驾驶领域通常采用激光雷达、毫米波雷达和视觉等传感器实现对环境的感知。这几种传感器各有优缺点,单独使用存在很大限制,在复杂干扰环境下可能无法提供障碍物的准确信息。如果将其中的两种或者多种的信息进行融合,不但能够提高感知可靠性,而且可以弥补不同传感器的短板。雷达传感器可以提供精准的速度和位置等信息;视觉传感器可以在保留目标的外观信息的前提下,弥补雷达传感器横向分辨率低的缺陷。视觉传感器和激光雷达在复杂的水上条件和天气情况下会大大降低环境感知能力,降低了检测算法的性能。然而,毫米波雷达对于复杂水上环境和天气情况有更高的适应性;
[0003]在水上自动驾驶领域中,对水面上的目标检测利用深度神经网络来提取雷达图像和视觉图像特征已屡见不鲜,但在实际应用中却难以实现。主要存在以下问题:1)水面上的目标在强烈光反射下可能导致图像曝光过度,使视觉图像中目标不清晰,权重降低;2)激光雷达与毫米波雷达存在差异,无法将现有激光雷达算法直接应用在毫米波雷达上;3)小目标检测准确性低。

技术实现思路

[0004]有鉴于此,本专利技术的目的在于提出一种基于双注意力机制多源融合的水上目标检测方法,以解决上述问题的全部或之一。
[0005]基于上述目的,本专利技术提供了一种基于双注意力机制多源融合的水上目标检测方法,包括如下步骤:
[0006]构建雷达图像生成模型和特征提取模型,并生成2D注意力矩阵;
[0007]构建视觉图像特征提取模型,得到视觉特征图;
[0008]将所述2D注意力矩阵沿视觉特征图所有通道重新加权,生成融合特征图;
[0009]将所述融合特征图输入目标检测网络FasterRCNN。
[0010]可选的,所述的构建雷达图像生成模型具体为:
[0011]获取雷达和视觉传感器训练数据,再把雷达点云映射到前置摄像头坐标系;
[0012]将雷达点云的深度,纵向速度和横向速度转化不同R、G、B通道的真实像素值;
[0013]以雷达点云转换为前置摄像头坐标点为圆心,按照一定的渲染规则渲染一个实心圆,得到雷达的训练图像;
[0014]通过构建雷达图像特征提取模型来对上述雷达的训练图像进行特征提取并生成对应的特征图。
[0015]可选的,渲染得到的所述实心圆的半径为7,所述的渲染规则为:若两个雷达点存
在重叠区域,深度较小的应占据更多区域。
[0016]可选的,所述的构建雷达图像特征提取模型具体为:
[0017]引入ResNet

50的前两个卷积块BasicStem和Block1,前者用于处理输入的雷达图像;后者用于输出特征雷达图像。
[0018]可选的,Block1仅引入1个残差块,来改善检测模型的随机梯度下降更新速度。
[0019]可选的,所述的生成2D注意力矩阵的具体步骤为:
[0020]使用4组具有不同感受野的卷积层来提取空间注意力矩阵,将雷达图像的特征图编码为空间域注意力权重矩阵;并将雷达特征图中的通道数减少到1。
[0021]可选的,所述的构建视觉图像特征提取模型,得到视觉特征图,具体包括以下步骤:
[0022]步骤1,对原始视觉图像进行尺寸缩放,并将缩放后的图输入VGG16特征提取网络;
[0023]步骤2,使用VGG16的卷积模块1提取图像特征;
[0024]步骤3,在特征提取网络VGG16每个卷积模块后引入SENet结构;
[0025]步骤4,重复5次步骤2和步骤3,最终得到第5层SENet结构输出的视觉特征图。
[0026]可选地,将所述2D注意力矩阵沿视觉特征图所有通道重新加权,生成融合特征图,包括:
[0027]采用克罗内克积矩阵运算的加权方法,将空间注意力矩阵加权到基于SENet的VGG16特征提取网络得到的新特征图。
[0028]可选的,所述将所述融合特征图输入目标检测网络FasterRCNN,包括如下步骤:
[0029]步骤1,将融合特征图输入到ROI池化层;
[0030]步骤2,将步骤1得到的特征图连续输入到两个全连接层;
[0031]步骤3,将全连接层后的结果传递到softmax分类器和边界回归层,得到分类结果以及回归后的边界框。
[0032]本专利技术的有益效果:本专利技术通过在雷达特征提取分支上引入空间域注意力机制,将雷达的特征图编码为2D注意力矩阵;在视觉图像特征提取分支上引入基于通道域注意力机制,通过SENet结构改进视觉图像特征提取网络的性能,并获取新特征图;将上述的2D注意力矩阵加权到的视觉图像特征提取网络提取的特征,并将加权融合后的特征传递到目标检测网络FasterRCNN进行回归和分类。本专利技术可以充分利用雷达和视觉传感器互补的信息,提升网络的精度和目标检测的准确度;有效解决水上目标在图像中权重降低以及微小目标检测性能低的问题。
附图说明
[0033]为了更清楚地说明本专利技术或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0034]图1为本专利技术的整体融合检测框架图。
具体实施方式
[0035]为使本专利技术的目的、技术方案和优点更加清楚明白,以下结合具体实施例,对本专利技术进一步详细说明。
[0036]需要说明的是,除非另外定义,本专利技术使用的技术术语或者科学术语应当为本专利技术所属领域内具有一般技能的人士所理解的通常意义。本专利技术中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
[0037]如图1所示,一种基于双注意力机制多源融合的水上目标检测方法,包括:
[0038]构建雷达图像生成模型和特征提取模型,并生成2D注意力矩阵;
[0039]构建视觉图像特征提取模型,得到视觉特征图;
[0040]将所述2D注意力矩阵沿视觉特征图所有通道重新加权,生成融合特征图;
[0041]将所述融合特征图输入目标检测网络FasterRCNN。
[0042]雷达点云反映的是雷达周围环境的物理状态,本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于双注意力机制多源融合的水上目标检测方法,其特征在于,包括如下步骤:构建雷达图像生成模型和特征提取模型,并生成2D注意力矩阵;构建视觉图像特征提取模型,得到视觉特征图;将所述2D注意力矩阵沿视觉特征图所有通道重新加权,生成融合特征图;将所述融合特征图输入目标检测网络FasterRCNN。2.根据权利要求1所述的基于双注意力机制多源融合的水上目标检测方法,其特征在于,所述的构建雷达图像生成模型具体为:获取雷达和视觉传感器训练数据,再把雷达点云映射到前置摄像头坐标系;将雷达点云的深度,纵向速度和横向速度转化不同R、G、B通道的真实像素值;以雷达点云转换为前置摄像头坐标点为圆心,按照一定的渲染规则渲染一个实心圆,得到雷达的训练图像;通过构建雷达图像特征提取模型来对上述雷达的训练图像进行特征提取并生成对应的特征图。3.根据权利要求2所述的基于双注意力机制多源融合的水上目标检测方法,其特征在于,渲染得到的所述实心圆的半径为7,所述的渲染规则为:若两个雷达点存在重叠区域,深度较小的应占据更多区域。4.根据权利要求1所述的基于双注意力机制多源融合的水上目标检测方法,其特征在于,所述的构建雷达图像特征提取模型具体为:引入ResNet

50的前两个卷积块BasicStem和Block1,前者用于处理输入的雷达图像;后者用于输出特征雷达图像。5.根据权利要求2所述的基于双注意力机制多源融合的水上目标检测方法,其特征在于,Block1仅引入1个残差块,来改善检测模型的随机梯...

【专利技术属性】
技术研发人员:张卫东仓乃梦陆锦辉熊明磊史颂华何伟苗建明王元慧
申请(专利权)人:海南大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1