一种融合全局信息的基于制造技术

技术编号:39805748 阅读:6 留言:0更新日期:2023-12-22 02:39
本发明专利技术公开了一种融合全局信息的基于

【技术实现步骤摘要】
一种融合全局信息的基于YOLOV8的烟火检测方法


[0001]本专利技术涉及人工智能
,具体涉及一种融合全局信息的基于
YOLOV8
的烟火检测方法


技术介绍

[0002]目前,基于深度学习的烟火检测主要有以下几种方法:
[0003]基于
Faster

R

CNN、SSD、YOLO
等单阶段或两阶段的目标检测算法,利用预训练的特征提取网络和自定义的数据集进行烟火检测

这种方法的优点是检测速度快

精度高,缺点是需要大量的标注数据和训练时间,以及模型体积较大

[0004]基于
MobileNet、ShuffleNet
等轻量级网络结构,对目标检测算法进行改进和优化,降低模型参数量和计算复杂度,提高检测效率

这种方法的优点是模型体积小

适合移动端部署,缺点是检测精度相对较低,尤其是对小目标火焰的检测能力较弱

[0005]在之前的基础上,通过引入
SENet
等各种注意力机制模块提出基于改进网络的火焰检测方法,提升检测精度

这些方法在检测准确率方面相对于传统方法取得了明显提升,但并未在嵌入式硬件平台上提供低成本的实现,使得这些算法的落地应用变得相当困难

而且,这些算法未充分考虑火焰或烟雾目标周围的背景信息,从而导致误报率升高
r/>[0006]中国专利文献
(CN115331141A)
公开了一种基于改进
YOLOv5
的高空烟火检测方法:在多路高空摄像头视频流的情况下应用多线程队列算法,为每路视频流设置一个抽帧上传线程,并将所有线程的抽帧图片传入一个无限长的队列中;建立高空角度的烟火数据集,并进行数据清理和标注数据集工作;修改
YOLOv5
网络中的骨干网络,将每个
CSP
结构后的标准卷积层均替换为混合注意力模块;设定训练超参数,基于第二步建立的烟火数据集,对第三步改进后的
YOLOv5
网络进行训练,训练完成得到烟火检测模型,将第一步得到的图片输入烟火检测模型中进行烟雾和火焰检测

[0007]在之前的基础上,又通过引入
SENet
等各种注意力机制模块提出基于改进网络的火焰检测方法,提升检测精度

这些方法在检测准确率方面相对于传统方法取得了明显提升,但并未在嵌入式硬件平台上提供低成本的实现,使得这些算法的落地应用变得相当困难

而且,这些算法未充分考虑火焰或烟雾目标周围的背景信息,容易将电灯,夕阳,水雾等具有强干扰性的类火或类烟目标误判为烟火目标,从而导致误报率升高

这主要是由于卷积网络的属性所导致的

卷积操作擅长分析图像的局部空间信息,卷积核的感受野大小与卷积核尺寸相关

通常轻量级网络会选择使用较小的卷积核进行计算,以减少计算量

因此,卷积神经网络易于提取图像的局部特征,但难以提取全局特征

[0008]然而,在实际烟火检测任务中,当图像中的烟火目标较小或出现类烟火目标时,目标周围的背景信息能够为网络提供非常有用的全局上下文信息

这作为网络判断目标类别和定位的重要辅助信息

[0009]因此,针对以上问题以及实际应用场景对实时性的要求,有必要提出一种融合全局信息的基于
YOLOV8
的烟火检测方法,提高烟火检测的准确性,减少了误检和漏检


技术实现思路

[0010]本专利技术要解决的技术问题是提出一种融合全局信息的基于
YOLOV8
的烟火检测方法,提高烟火检测的准确性,减少了误检和漏检

[0011]为了解决上述技术问题,本专利技术采用的技术方案是:该融合全局信息的基于
YOLOV8
的烟火检测方法,具体包括以下步骤:
[0012]S1
:收集火焰和烟雾的图片以及视频,对采集到的视频提取帧后,获得图像数据,对图像数据进行标注得到烟火数据集;
[0013]S2
:对烟火数据集进行增强,获得增强数据集;
[0014]S3
:构建
BGCNet
全局上下文信息的网络并将其加入
YOLOV8
网络的主干特征提取网络与特征金字塔网络之间得到改进后的
YOLOV8
网络;调整参数,训练融合全局信息的
YOLOV8
网络检测模型;
[0015]S4
:加载融合全局信息的
YOLOV8
网络检测模型,输入增强数据集,进行烟火检测;对模型推理结果进行分析,根据触发不同的阈值进行相应的烟火报警

[0016]采用上述技术方案,在保证检测精度和检测效率下,为了降低烟雾和火焰的误检,在数据处理方面,采取更优的数据增强,在网络方面,在
YOLOV8
的主干特征提取网络与特征金字塔网络之间加入改进后的高效提取图像全局上下文信息网络
BGCNet
进行改进,通过使用全局上下文信息,可建模目标与背景的远程依赖,加强网络学习过程对视觉场景的全局理解,从而学习到更具判别性的特征

可以有效降低烟雾和火焰的误检,通过有效利用烟火目标的背景信息来提升检测性能,从而提高检测的准确率

[0017]优选地,所述步骤
S2
的具体步骤为:
[0018]S21
:首先对烟火数据集中的图像数据进行翻转或旋转或裁剪或缩放;
[0019]S22
:再使用薄板样条插值算法对烟雾以火焰的形状进行扭曲变化;
[0020]S23
:通过步骤
S12
处理后的增强数据扩充数据集,获得增强数据集,再将增强数据集划分为训练集和测试集

通过采取更优的数据增强,扩充烟火数据集,提高模型的泛化能力

[0021]优选地,所述步骤
S22
中在二维情况下,薄板样条插值的计算公式为:
[0022][0023]其中,
(x,y)
是要进行插值计算的点坐标即插值点的坐标;
a0,a1,a2是待求的系数;
n
是数据点的数量;
w
i
是权重,表示与第
i
个数据点的距离的函数;
r
i
是插值点
(x,y)
与数据点
i
的欧氏距离;
U(r)
是径向基函数,选择
U(r)

r2·
ln(r)
;将薄板样条插本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.
一种融合全局信息的基于
YOLOV8
的烟火检测方法,其特征在于,具体包括以下步骤:
S1
:收集火焰和烟雾的图片以及视频,对采集到的视频提取帧后,获得图像数据,对图像数据进行标注得到烟火数据集;
S2
:对烟火数据集进行增强,获得增强数据集;
S3
:构建
BGCNet
全局上下文信息的网络并将其加入
YOLOV8
网络的主干特征提取网络与特征金字塔网络之间得到改进后的
YOLOV8
网络;调整参数,训练融合全局信息的
YOLOV8
网络检测模型;
S4
:加载融合全局信息的
YOLOV8
网络检测模型,输入增强数据集,进行烟火检测;对模型推理结果进行分析,根据触发不同的阈值进行相应的烟火报警
。2.
根据权利要求1所述的融合全局信息的基于
YOLOV8
的烟火检测方法,其特征在于,所述步骤
S2
的具体步骤为:
S21
:首先对烟火数据集中的图像数据进行翻转或旋转或裁剪或缩放;
S22
:再使用薄板样条插值算法对烟雾以火焰的形状进行扭曲变化;
S23
:通过步骤
S12
处理后的增强数据扩充数据集,获得增强数据集,再将增强数据集划分为训练集和测试集
。3.
根据权利要求2所述的融合全局信息的基于
YOLOV8
的烟火检测方法,其特征在于,所述步骤
S22
中在二维情况下,薄板样条插值的计算公式为:其中,
(x,y)
是要进行插值计算的点坐标即插值点的坐标;
a0,a1,a2是待求的系数;
n
是数据点的数量;
w
i
是权重,表示与第
i
个数据点的距离的函数;
r
i
是插值点
(x,y)
与数据点
i
的欧氏距离;
U(r)
是径向基函数,选择
U(r)

r2·
ln(r)
;将薄板样条插值算法与步骤
S1
中所标注的数据集结合,选择插值点进行插值计算
。4.
根据权利要求2所述的融合全局信息的基于
YOLOV8
的烟火检测方法,其特征在于,所述步骤
S22
中将薄板样条插值算法与步骤
S1
中所标注的数据集结合,选择插值点进行插值计算的具体步骤为:
S221
数据准备:所述步骤
S1
中标注的数据集为包含有
VOC
格式标注的数据集,其中包含图像的路径

物体的位置

类别的信息;
S222
解析
VOC
数据:编写代码解析
VOC
格式数据集,提取出物体的边界框坐标的位置信息;
S233
选择插值点:选择标注数据中的点作为插值点,
S224
计算权重:对于选定的插值点,计算每个插值点与其他标注点之间的距离,并根据距离计算权重;
S225
进行薄板样条插值:使用计算得到的权重,以及选定的插值点作为控制点,应用薄板样条插值的公式来计算插值结果;
S226
整合插值结果:将插值结果与原始标注数据结合起来,保存插值结果作为平滑后的位置信息
。5.
根据权利要求2所述的融合全局信息的基于
YOLOV8
的烟火检测方法,其特征在于,所述步骤
S3
的具体步骤为:
S31
构建
BGCNet
网络:
BGCNet
网络结构的公式为:
其中,
i
是当前被计算的响应位置索引;
j
是所有位置的索引;
N
p
是所有位置数量;
Norm
操作用于归一化;
W
k
为二维1×1卷积核,
W
k
x
j
计算输入特征在位置<...

【专利技术属性】
技术研发人员:陈大龙陈昊然胡育川
申请(专利权)人:南京华苏科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1