火灾态势预测方法、设备及介质技术

技术编号:37978652 阅读:22 留言:0更新日期:2023-06-30 09:53
本发明专利技术实施例公开了一种火灾态势预测方法、设备及介质。其中,方法包括:实时获取待检测地区的视频图像;当检测到图像中存在火灾区域时,将多帧连续图像以相邻两帧为一组划分为多组;通过基于深度学习的特征提取模块,分别提取每组图像的时间特征和空间特征;通过卷积层将相邻两组图像的时间特征进行融合,反映火灾速度随时间的变化情况;通过卷积层将相邻两组图像的空间特征进行融合,反映火灾范围和烟雾浓度随时间的变化情况;将融合后的时间特征和融合后的空间特征进行加权融合,并利用加权融合后的特征对进行火灾态势预测。本实施例快速实现火灾态势的自动预测。速实现火灾态势的自动预测。速实现火灾态势的自动预测。

【技术实现步骤摘要】
火灾态势预测方法、设备及介质


[0001]本专利技术实施例涉及计算机
,尤其涉及一种火灾态势预测方法、设备及介质。

技术介绍

[0002]火灾一旦失去控制,就会对人类的生命财产造成严重的损害。避免火灾的有效方法是早发现。
[0003]在新型智慧城市建设中,可以利用城市监控摄像头所拍摄的视频,基于深度学习和计算机视觉技术进行快速的火灾检测。但目前尚没有一种方法,能够自动、快速地对火灾态势进行预测。

技术实现思路

[0004]本专利技术实施例提供一种火灾态势预测方法、设备及介质,快速实现火灾态势的自动预测。
[0005]第一方面,本专利技术实施例提供了一种火灾态势预测方法,包括:
[0006]实时获取待检测地区的视频图像;
[0007]当检测到图像中存在火灾区域时,将多帧连续图像以相邻两帧为一组划分为多组,其中,相邻两组图像中包括一帧重叠的图像;
[0008]通过基于深度学习的特征提取模块,分别提取每组图像的时间特征和空间特征,其中,所述时间特征用于反映火灾速度信息,所述空间特征用于反映火灾范围和烟雾浓度信息;
[0009]通过卷积层将相邻两组图像的时间特征进行融合,反映火灾速度随时间的变化情况;
[0010]通过卷积层将相邻两组图像的空间特征进行融合,反映火灾范围和烟雾浓度随时间的变化情况;
[0011]将融合后的时间特征和融合后的空间特征进行加权融合,并利用加权融合后的特征对进行火灾态势预测;
[0012]其中,预测结果包括增强、不变和减弱,加权融合的权重用于反时间特征和空间特征在火灾态势预测中的比重,所述权重、以及所述特征提取模块和卷积层的参数由样本数据预先训练得到。
[0013]第二方面,本专利技术实施例提供一种电子设备,包括:
[0014]一个或多个处理器;
[0015]存储器,用于存储一个或多个程序,
[0016]当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述的火灾态势预测方法。
[0017]第三方面,本专利技术实施例提供一种计算机可读存储介质,其上存储有计算机程序,
该程序被处理器执行时实现上述的火灾态势预测方法。
[0018]本专利技术实施例将火灾态势预测问题转换为深度学习的多分类问题,通过连续视频帧的时间特征反映火灾的速度信息,通过视频帧的空间特征反映火灾的范围信息和烟雾浓度信息,并将时间特征和空间特征随时间的变化情况进一步融合,综合描述火灾范围及烟雾浓度的扩散情况,为火灾态势预测提供数据支撑。
附图说明
[0019]为了更清楚地说明本专利技术具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本专利技术的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0020]图1是本专利技术实施例提供的一种火灾态势预测方法的流程图。
[0021]图2是本专利技术实施例提供的一种深度学习模型的示意图。
[0022]图3是本专利技术实施例提供的一种电子设备的结构示意图。
具体实施方式
[0023]为使本专利技术的目的、技术方案和优点更加清楚,下面将对本专利技术的技术方案进行清楚、完整的描述。显然,所描述的实施例仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施例,都属于本专利技术所保护的范围。
[0024]在本专利技术的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本专利技术和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本专利技术的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
[0025]在本专利技术的描述中,还需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本专利技术中的具体含义。
[0026]图1是本专利技术实施例提供的一种火灾态势预测方法的流程图。该方法适用于通过视频图像检测是否发生火灾并进行火灾态势预测的情况。该方法由电子设备执行,如图1所示,具体包括如下步骤。
[0027]S110、实时获取待检测地区的视频图像。
[0028]所述待检测地区为开放空间,所述开放空间的视频图像可通过摄像机和城市监控摄像头获取,作为后续操作的数据源。
[0029]可选的,如果后续操作中需要图像满足特定尺寸,则将获取到的每一帧图像调整为所述特定尺寸。示例性的,将所每一帧图像进行尺度变化,将其转换为224
×
224的大小,以满足后续操作的尺寸需求。
[0030]S120、当检测到图像中存在火灾区域时,将多帧连续图像以相邻两帧为一组划分为多组,其中,相邻两组图像中包括一帧重叠的图像。
[0031]本步骤首先根据视频图像实时检测图像中是否存在火灾区域。具体的检测方法为现有技术,在此不再赘述。当检测到一帧图像中存在火灾区域时,将所述一帧图像周围的多帧连续图像以相邻两帧为单元划分为多组,后续的火灾态势预测将对每一组图像进行处理,并要求所输入的视频帧为RGB图像且尺寸符合要求。示例性的,要求的尺寸为224
×
224。
[0032]需要说明的是,由于火灾发展迅速,为了争取更多的救援时间,可以将同一帧图像与前一帧图像构成一组,同时与后一帧图像构成另一组,这样可以提高各组图像在时间上的密集度,缩短整个方法的执行时间。特别的,当检测到一帧图像I
t
中存在火灾区域时,将所述一帧图像和上一帧图像I
t
‑1构成的一组,记为(I
t
‑1,I
t
);将下一帧图像I
t+1
和所述一帧图像构成的另一组(I
t
,I
t+1
);仅将这两组图像作为后续火灾态势预测的处理对象,不再处理更多的视频帧,这样可以使需要处理的图像组数最少且获取速度最快,从而能够以最快速度的预测火灾态势。
[0033]S130、通过基于深度学习的特征提取模块,分别提取每组图像的时间特征和空间特征,其中,所述时间特征用于反映火灾速度信息,所述空间特征用于反映火灾范围和烟雾浓度信息。
[0034]所述特征提取模块模型是预先训练好的,包括并行的时间特征提取分支和空间特征提取分支。时间特征提取分支用于提取输入帧序列所蕴含的速度场,从而构造时间本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种火灾态势预测方法,其特征在于,包括:实时获取待检测地区的视频图像;当检测到图像中存在火灾区域时,将多帧连续图像以相邻两帧为一组划分为多组,其中,相邻两组图像中包括一帧重叠的图像;通过基于深度学习的特征提取模块,分别提取每组图像的时间特征和空间特征,其中,所述时间特征用于反映火灾速度信息,所述空间特征用于反映火灾范围和烟雾浓度信息;通过卷积层将相邻两组图像的时间特征进行融合,反映火灾速度随时间的变化情况;通过卷积层将相邻两组图像的空间特征进行融合,反映火灾范围和烟雾浓度随时间的变化情况;将融合后的时间特征和融合后的空间特征进行加权融合,并利用加权融合后的特征对进行火灾态势预测;其中,预测结果包括增强、不变和减弱,加权融合的权重用于反时间特征和空间特征在火灾态势预测中的比重,所述权重、以及所述特征提取模块和卷积层的参数由样本数据预先训练得到。2.根据权利要求1所述的方法,其特征在于,所述当检测到图像中存在火灾区域时,将多帧连续图像以相邻两帧为一组划分为多组,包括:当检测到一帧图像中存在火灾区域时,将所述一帧图像和前后两帧图像划分为两组,使图像组数最少且获取时间最快,以最快预测火灾态势;其中,所述一帧图像和上一帧图像为一组,下一帧图像和所述一帧图像为另一组。3.根据权利要求1所述的方法,其特征在于,在所述通过卷积层将相邻两组图像的时间特征进行融合之前,还包括:利用卷积块注意模块,对每组图像的时间特征和空间特征分别进行显著性特征提取,以增强火灾区域的显著性;将显著性特征提取的结果,分别作为最终的时间特征和空间特征。4.根据权利要求1所述的方法,其特征在于,所述特征提取模块包括无监督光流估计模型和卷积网络;所述通过基于深度学习的特征提取模块,分别提取每组图像的时间特征和空间特征,包括:将任一组图像中的两帧图像输入所述无监督光流估计模型,得到所述一组图像的时间特征;将所述两帧图像中时间较大的一帧图像输入所述卷积网络,得到所述一组图像的空间特征。5.根据权利要求4所述的方法,其特征在于,所述通过基于深度学习的特征提取模块,分别提取每组图像的时间特征和空间特征之前,还包括:分别对所述无监督光流估计模型和卷积网络单独进行训练;其中,所述无监督光流估计模型训练中采用的损失函数包括:结构损失和光度损失的加权融合;所述卷积网络训练中采用的损失函数包括:...

【专利技术属性】
技术研发人员:张自立
申请(专利权)人:河北师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1