一种基于YOLO V3的旋转目标检测方法技术

技术编号:23085498 阅读:89 留言:0更新日期:2020-01-11 01:18
本发明专利技术公开了一种基于YOLO V3的旋转目标检测方法,本发明专利技术先通过对具有任意方向的遥感舰船训练集图像进行信息提取,使用改进的YOLO V3算法对遥感舰船训练集进行训练,最终可以在测试集中完成对具有任意角度的遥感舰船的检测。本发明专利技术对原YOLO V3算法的anchor box的产生、IOU的计算、损失函数的计算方法进行重新设计,增加训练集图像中检测目标的角度信息,使得可以在测试集中完成对具有任意角度的目标的检测。

A method of rotating target detection based on Yolo V3

【技术实现步骤摘要】
一种基于YOLOV3的旋转目标检测方法
本专利技术属于深度学习领域,涉及一种基于YOLOV3的旋转目标检测方法。
技术介绍
目前,目标检测已被广泛应用于军事和民用等领域中。深度卷积神经网络可以利用目标数据集对要检测的目标进行自主学习,并完善自己的模型。YOLOV3是一种单步目标检测算法,此算法不需要使用区域候选网络(RPN)来提取候选目标信息,而是直接通过网络来产生目标的位置和类别信息,是一种端到端的目标检测算法。因此,单步目标检测算法具有更快的检测速度。YOLOV3模型是采用分网格直接回归目标坐标和分类目标的方法进行目标检测,主要利用水平矩形边界框定义目标位置,通过边界框参数的回归对目标进行定位。这种方法对于目标对象是人,车等目标是足够准确的,而对于目标对象是文本,舰船等任意方向的目标是不适合的。
技术实现思路
本专利技术针对现有技术的不足,提供了一种基于YOLOV3的旋转目标检测方法,该方法通过对具有任意方向的遥感舰船训练集图像进行信息提取,使用改进的YOLOV3算法对遥感舰船训练集进行训练,最终可以在测试集中完成对具有任意角度的遥感舰船的检测。步骤(1)、对训练集图像中的检测目标进行位置信息,角度信息的提取;训练集图像进行处理,将检测目标表示为一个5维向量{x,y,w,h,θ};其中:x表示检测目标的x轴方向的坐标,y表示检测目标的y轴方向的坐标,w表示检测目标的长度,h表示检测目标的宽度,θ表示检测目标的倾斜角度;步骤(2)、改进YOLOV3算法框架2.1锚点框的设置使用带有旋转角度的三维度变量锚点,设置N个不同的角度来控制检测目标疑似区域的提取;设置多组锚点框长度和宽度,根据已知的训练集图像检测目标设置三组锚点框大小;根据卷积神经网络中卷积核的步幅和输入图像的大小会产生不同的尺度;在每个尺度上使用3个锚点来产生3个边界框,得到3*3*N个锚点框来与检测目标的位置区域进行拟合;2.2损失函数的设置;正负样本区域提取的划定准则为:锚点框与GT框的IOU大于0.7,同时与GT框的角度夹角小于π/12为正样本;锚点框与GT框的IOU小于0.3或是与GT框的IOU大于0.7,但是与GT框的角度夹角大于π/12为负样本;没有被归为正样本和负样本的在训练过程中不会被使用;GT框即检测目标的位置区域;IOU表示锚点框与GT框拟合的重叠面积大小;定义损失函数:Loss=Lcls(p,l)+Lreg(v*,v)+Lconf其中:Lcls(p,l)表示进行分类的损失函数,l表示类别标签,l=1表示选择的是目标物,l=0表示选择的是背景,如果选择背景则不存在回归的损失函数,当l=1时,采用交叉熵的方式计算真实类别与预测类别的损失,p为线性分类的概率;Lreg(v*,v)表示进行回归的损失函数;v*为步骤(1)中检测目标的信息(x,y,w,h,θ),v为步骤(2)中锚点框对应的预测检测目标的信息(x',y',w',h',θ'),采用均方差的方式计算预测值v与真实值v*的损失;Lconf表示置信度的损失函数,当IOU低于0.3时视为图片中不存在目标,当高于0.3时需要让预测的目标尽可能靠近真实值,没有目标的部分需要尽可能靠近背景真实值,采用交叉熵的方式来计算置信度的损失;步骤(3)、使用改进后的YOLOV3算法对训练集图像进行训练,迭代至损失函数不再下降为止,获取权重文件;步骤(4)、利用步骤(3)中得到的权重文件,对测试集图像进行测试。本专利技术的有益效果如下:本专利技术对原YOLOV3算法的anchorbox的产生、IOU的计算、损失函数的计算方法进行重新设计,增加训练集图像中检测目标的角度信息,使得可以在测试集中完成对具有任意角度的目标的检测。附图说明图1为本专利技术的流程图。具体实施方式下面结合图1对本专利技术做进一步的分析。本实验将一组采集的舰船目标图像划分为训练集和测试集。在基于YOLOV3的旋转目标检测任务中的具体步骤如下:步骤(1)、对训练集图像中的检测目标进行位置信息,角度信息的提取。旋转目标检测方法相比于原YOLOV3算法需要增加一个角度信息。对训练集图像进行处理,将检测目标表示为一个5维向量{x,y,w,h,θ}。其中x表示检测目标的x轴方向的坐标,y表示检测目标的y轴方向的坐标,w表示检测目标的长度,w表示检测目标的宽度,θ表示检测目标的倾斜角度。步骤(2)、改进YOLOV3算法框架。2.1anchorbox(锚点框)的设置。使用带有旋转角度的三维度变量锚点,设置多个不同的角度来控制检测目标疑似区域的提取,可以使用6个不同的角度:-π/6,0,π/6,π/3,π/2,2π/3。设置多组锚点框长度和宽度,可以根据已知的训练集图像检测目标设置三组anchorbox大小:[(10,13),(16,30),(33,23)],[(30,61),(62,45),(59,119)],[(116,90),(156,198),(373,326)]。根据卷积神经网络中卷积核的步幅和输入图像的大小会产生不同的尺度,原YOLOV3特征图步幅分别使32、16、8,输入图像的大小416*416,产生的尺度为13*13、26*26、52*52。在每个尺度上使用3个anchor来产生3个边界框,这样就可以的到3*3*6=54个anchorbox来与检测目标的位置区域进行拟合2.2损失函数的设置。正负样本区域提取的划定准则为:anchorbox与GT框(检测目标的位置区域)的IOU(anchorbox与GT框拟合的重叠面积大小)大于0.7,同时与GT框的角度夹角小于π/12为正样本;anchorbox与GT框的IOU小于0.3或是与GT框的IOU大于0.7,但是与GT框的角度夹角大于π/12为负样本;没有被归为正样本和负样本的在训练过程中不会被使用。定义损失函数:Loss=Lcls(p,l)+Lreg(v*,v)+Lconf其中:Lcls(p,l)表示进行分类的损失函数,l表示类别标签(l=1表示选择的是目标物,l=0表示选择的是背景,如果选择背景则不存在回归的损失函数),当l=1时,采用交叉熵的方式计算真实类别与预测类别的损失(p为线性分类的概率);Lreg(v*,v)表示进行回归的损失函数。v*为步骤(1)中检测目标的信息(x,y,w,h,θ),v为步骤(2)中anchorbox对应的预测检测目标的信息(x',y',w',h',θ'),采用均方差的方式计算预测值v与真实值v*的损失;Lconf表示置信度的损失函数。当IOU低于0.3时视为图片中不存在目标,当高于0.3时需要让预测的目标尽可能靠近真实值,没有目标的部分需要尽可能靠近背景真实值,采用交叉熵的方式来计算置信度的损失。步骤(3)、使用改进后的YOLOV3算法对训练集图像进行训练,迭代至损失函数不再下降为止,获取权重文件。步骤(4)、利用步骤(3)中得本文档来自技高网...

【技术保护点】
1.一种基于YOLO V3的旋转目标检测方法,其特征在于,该方法具体包括以下步骤:/n步骤(1)、对训练集图像中的检测目标进行位置信息,角度信息的提取;/n训练集图像进行处理,将检测目标表示为一个5维向量{x,y,w,h,θ};其中:x表示检测目标的x轴方向的坐标,y表示检测目标的y轴方向的坐标,w表示检测目标的长度,h表示检测目标的宽度,θ表示检测目标的倾斜角度;/n步骤(2)、改进YOLO V3算法框架/n2.1 锚点框的设置/n使用带有旋转角度的三维度变量锚点,设置N个不同的角度来控制检测目标疑似区域的提取;设置多组锚点框长度和宽度,根据已知的训练集图像检测目标设置三组锚点框大小;根据卷积神经网络中卷积核的步幅和输入图像的大小会产生不同的尺度;在每个尺度上使用3个锚点来产生3个边界框,得到3*3*N个锚点框来与检测目标的位置区域进行拟合;/n2.2 损失函数的设置;/n正负样本区域提取的划定准则为:锚点框与GT框的IOU大于0.7,同时与GT框的角度夹角小于π/12为正样本;锚点框与GT框的IOU小于0.3或是与GT框的IOU大于0.7,但是与GT框的角度夹角大于π/12为负样本;没有被归为正样本和负样本的在训练过程中不会被使用;GT框即检测目标的位置区域;IOU表示锚点框与GT框拟合的重叠面积大小;/n定义损失函数:/nLoss=L...

【技术特征摘要】
1.一种基于YOLOV3的旋转目标检测方法,其特征在于,该方法具体包括以下步骤:
步骤(1)、对训练集图像中的检测目标进行位置信息,角度信息的提取;
训练集图像进行处理,将检测目标表示为一个5维向量{x,y,w,h,θ};其中:x表示检测目标的x轴方向的坐标,y表示检测目标的y轴方向的坐标,w表示检测目标的长度,h表示检测目标的宽度,θ表示检测目标的倾斜角度;
步骤(2)、改进YOLOV3算法框架
2.1锚点框的设置
使用带有旋转角度的三维度变量锚点,设置N个不同的角度来控制检测目标疑似区域的提取;设置多组锚点框长度和宽度,根据已知的训练集图像检测目标设置三组锚点框大小;根据卷积神经网络中卷积核的步幅和输入图像的大小会产生不同的尺度;在每个尺度上使用3个锚点来产生3个边界框,得到3*3*N个锚点框来与检测目标的位置区域进行拟合;
2.2损失函数的设置;
正负样本区域提取的划定准则为:锚点框与GT框的IOU大于0.7,同时与GT框的角度夹角小于π/12为正样本;锚点框与GT框的IOU小于0.3或是与GT框的IOU大于0.7,但是与GT框的角度夹角大于π/12为负样本;没有被归为正样本和负...

【专利技术属性】
技术研发人员:陈华杰吴栋侯新雨韦玉谭
申请(专利权)人:杭州电子科技大学
类型:发明
国别省市:浙江;33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1