当前位置: 首页 > 专利查询>南京大学专利>正文

一种基于视频的多种特征融合的烟雾识别方法技术

技术编号:10346366 阅读:119 留言:0更新日期:2014-08-22 11:25
本发明专利技术提供了一种基于视频的多种特征方法融合的烟雾检测方法。该方法通过对背景建模去除背景、根据烟雾区域与非烟雾区域的各通道最小值的不同筛选烟雾候选区、并根据角点轮廓和小波变换统计特征去除非烟雾物体。该方法将多种特征有机结合起来,构造出一种复合的、具有较好适应性和准确性的烟雾识别算法。本发明专利技术的有益之处是:有效地融合了多种区分烟雾与非烟雾的特征,具有较好的适用性,能够检测多种颜色、多种形态的烟雾;准确率较高,能够有效去除与烟雾颜色相同或相近物体的干扰,并及时准确地识别烟雾,故可用于多种火灾预报警系统中,从而火灾发生的初期为人们提供预警。

【技术实现步骤摘要】
一种基于视频的多种特征融合的烟雾识别方法
本专利技术属于计算机图像处理
,具体涉及一种基于视频的多种特征融合的烟雾识别方法,可应用于火灾预报警监测软件系统中。
技术介绍
火灾严重威胁着人类的财产安全和生命安全,对火灾进行预测报警能够使人们防患于未然,从而使火灾对人民群众的危害降低到最小。传统的烟雾报警器通常使用感温、感光等手段,一般需要安装在着火点附近;此外,感温传感器监测到温度上升并进行报警时,通常火灾已经发生,火势已经蔓延,为人们预留的时间比较短。视频烟雾检测不仅无安装位置的要求,而且它是通过对烟雾的监测进行预警,烟雾通常发生在火灾的初期,因此能够为人们躲避或扑灭大火争取更多的时间。与一般的模式识别任务相类似,烟雾检测的核心技术之一是从图像数据中抽取出具有良好的区分能力和抗噪声、干扰能力的特征描述或表述。特征提取算法以及在此基础上的识别算法的有效性对整体的识别的准确率和可靠性具有至关重要的作用。识别烟雾所使用的特征一般分为静态特征和动态特征,静态特征有颜色特征、纹理特征、周长与面积比、梯度值等,静态特征的主要特点是仅从一帧视频中即可计算出所需特征。动态特征有块累积朝向、边缘轮廓的频率等,动态特征的主要特点是需要从连续的多帧中抽取其统计特征。一般来讲,静态特征计算量较小,效率较高,但抗干扰能力相对较弱,准确性相对较低;而动态特征计算量较大,效率较低,但抗干扰能力相对较强,准确性也相对较高。烟雾虽然具有丰富的特征,但是要将其从复杂的环境中准确识别出来,与刚性物体相比,还是具有不少的困难。现有检测技术所存在的不足主要有两个方面:(1)准确性不够目前的烟雾检测,无论是利用单一特性还是综合利用多种特性,都会有漏报和误报,尤其是在复杂的环境里。采用单一特性的烟雾检测,误报率往往较高,特别是无法对淡而少的烟和浓而厚的烟同样处理。准确性不够的根本原因,是这些特征不够本质,与烟雾没有一一对应关系。(2)适应性不强虽然有些算法在一定条件下具有较好的效果,但在复杂环境下其检测性能有所降低。
技术实现思路
本专利技术旨在针对现有烟雾识别技术在准确率不高和适用性不强的不足,提出一种新颖的、融合静态特征和动态特征的烟雾识别方法。为了解决上述技术问题,本专利技术公开了一种多特征融合的烟雾视频检测算法,包括如下步骤:(1)设定背景帧和阈值帧,背景帧初始时取为第一帧视频,阈值帧中所有像素点的初始值均设为10;10是指像素的灰度值大小,8位单通道的灰度值是0到255,是相对值。(2)读取视频帧,更新背景和阈值,阈值更新公式如下:其中,Tn(x,y)表示第n帧阈值图像(x,y)点的灰度值,Bn(x,y)表示第n帧背景图像(x,y)点的灰度值;α是一个常数,表示阈值更新速度,取值范围为(0,1],在实验时使用0.5,In(x,y)表示第n帧视频帧(x,y)点的值。背景更新公式如下:该公式中的字母与阈值更新公式中含义一致。(3)对第n帧图像In(x,y)与第n帧背景Bn(x,y)做差,差值图像为differIn(x,y);(4)可以选取黄色、灰色、淡蓝色、红色及棕色等多种颜色类型的烟雾图片,图片中仅包含烟雾,抽取图片中大小为k*k,本专利技术k取值为5,块的所有像素点的三通道的最小值,以这些抽取的数据作为训练集,使用支持向量机SVM算法进行训练,建立训练模型M;(5)将视频的第n帧划分成块,块大小为5*5像素,取块中所有像素点的三通道的最小值,使用步骤4中的模型M识别,将所有非烟雾区域设值为0,烟雾区域设值为255,得图像minIn;(6)使用OpenCV中函数cvGoodFeaturesToTrack寻找第n帧视频中角点;(7)使用基于距离和密度的聚类算法DBSCAN(参见,Adensity-basedalgorithmfordiscoveringclustersinlargespatialdatabaseswithnoise.MEster,HPKriegel,JSander,XXu-KDD,1996-aaai.org)对步骤6中找到的角点进行聚类,使用OpenCv库函数convexHull绘制包围每类角点的轮廓,将轮廓内的所有点设值为0,得到图像cornerIn;(8)对步骤2中的背景帧Bn(x,y)和第n帧In(x,y)分别作二维离散小波变换(二维离散小波变换是公知的,变换的方法有现成的公式和程序),分解后的图像包含四部分,LL区表现图像的低频部分;HL、LH和HH区域分别包含水平方向、垂直方向和对角方向的边缘信息,求小波变换后图像帧与背景帧的差值。(9)对步骤8中的HL、LH和HH区域分块,块大小为4*3,求块内系数和,如果系数和大于阈值T1(本专利技术T1值取值30),则认为为非烟雾,否则认为是烟雾,然后根据HL、LH和HH中像素点的位置设置原视频帧,得到waveletIn;(10)对步骤3中求得的differIn(x,y),步骤5中求得的minIn,步骤7中求得的cornerIn,以及步骤9中求的waveletIn做与运算,得到tmpResultIn;(11)对步骤10中的tmpResultI_n做中值平滑运算,从而使检测结果更自然,得到resultI_n;(12)计算步骤11中所有非0点的面积,若面积大于等于阈值T2(T2取值范围为(50,100]),则将报警标志数num加1,如果num的值大于等于3,则报警;若面积小于阈值T2,则将报警标志数num置0;(13)如果视频未结束,则跳至步骤1;否则,结束。本专利技术通过结合动态特征和静态特征,该方法在具有较高准确率和抗干扰能力的同时,也具有较强的适用性,能够识别多种不同颜色和形态特征的烟雾。本专利技术具有以下优点:(1)综合应用动态特征和静态特征,具有较高的准确率。(2)具有较强的抗干扰能力,能够将与烟雾颜色相同或相似的物体有效去除;(3)具有较好的适用性,能够识别多种不同颜色的烟雾,能够适用于多种场景。附图说明下面结合附图和具体实施方式对本专利技术做更进一步的具体说明,本专利技术的上述和/或其他方面的优点将会变得更加清楚。图1为本实施例流程图。图2a~图2f为本实施例检测的多种场景的示例图。图3a~图3f为图2中对应正例场景的检测结果。具体实施方式本专利技术公开了一种基于视频的多种特征融合的烟雾识别方法,包括以下步骤:(1)设定背景帧和阈值帧;(2)读取视频帧,更新背景和阈值;(3)对视频的第n帧In(x,y)与第n帧背景Bn(x,y)做差,差值图像为differIn(x,y);(4)判断是否有训练模型M,如果有直接进行步骤(5),否则建立训练模型M后进行步骤(5);(5)将视频的第n帧转化为k*k大小的块,取块中所有像素点的三通道的最小值,使用步骤4中的模型M识别,将所有非烟雾区域设值为0,烟雾区域设值为1,得图像minIn;(6)寻找视频第n帧中的角点;(7)对步骤6中找到的角点进行聚类,绘制包围每类角点的轮廓,将轮廓内的所有点设值为0,得到图像cornerIn;(8)采用基波函数,对步骤2中的第n帧背景Bn(x,y)和视频中第n帧图像In(x,y)分别作二维离散小波变换,分解后的图像包含四个区域,LL区域表现图像的低频部分;HL、LH和HH区域分别包含水平方向、垂直方向和对角方向的边缘信息,本文档来自技高网
...
一种基于视频的多种特征融合的烟雾识别方法

【技术保护点】
一种基于视频的多种特征融合的烟雾识别方法,其特征在于,包括以下步骤:(1)设定背景帧和阈值帧;(2)读取视频帧,更新背景和阈值;(3)对视频的第n帧In(x,y)与第n帧背景Bn(x,y)做差,差值图像为differIn(x,y);(4)判断是否有训练模型M,如果有直接进行步骤(5),否则建立训练模型M后进行步骤(5);(5)将视频的第n帧转化为k*k大小的块,取块中所有像素点的三通道的最小值,使用步骤4中的训练模型M识别,将所有非烟雾区域设值为0,烟雾区域设值为1,得图像minIn;(6)寻找视频第n帧中的角点;(7)对步骤6中找到的角点进行聚类,绘制包围每类角点的轮廓,将轮廓内的所有点设值为0,得到图像cornerIn;(8)采用基波函数,对步骤2中的第n帧背景Bn(x,y)和视频中第n帧图像In(x,y)分别作二维离散小波变换,分解后的图像包含四个区域,LL区域表现图像的低频部分;HL、LH和HH区域分别包含水平方向、垂直方向和对角方向的边缘信息,求小波变换后图像帧与背景帧的差值;(9)对步骤8中的HL、LH和HH区域分块求块内系数和,如果系数和大于阈值T1,则判定为非烟雾,否则判定为烟雾,然后根据HL、LH和HH区域中像素点的位置设置原视频帧,得到图像waveletIn。...

【技术特征摘要】
1.一种基于视频的多种特征融合的烟雾识别方法,其特征在于,包括以下步骤:(1)设定背景帧和阈值帧;(2)读取视频帧,更新背景和阈值;(3)对视频的第n帧In(x,y)与第n帧背景Bn(x,y)做差,差值图像为differIn(x,y);(4)判断是否有训练模型M,如果有直接进行步骤(5),否则建立训练模型M后进行步骤(5);(5)将视频的第n帧转化为k*k大小的块,取块中所有像素点的三通道的最小值,使用步骤4中的训练模型M识别,将所有非烟雾区域设值为0,烟雾区域设值为1,得图像minIn;(6)寻找视频第n帧中的角点;(7)对步骤6中找到的角点进行聚类,绘制包围每类角点的轮廓,将轮廓内的所有点设值为0,得到图像cornerIn;(8)采用基波函数,对步骤2中的第n帧背景Bn(x,y)和视频中第n帧图像In(x,y)分别作二维离散小波变换,分解后的图像包含四个区域,LL区域表现图像的低频部分;HL、LH和HH区域分别包含水平方向、垂直方向和对角方向的边缘信息,求小波变换后图像帧与背景帧的差值;(9)对步骤8中的HL、LH和HH区域分块求块内系数和,如果系数和大于阈值T1,则判定为非烟雾,否则判定为烟雾,然后根据HL、LH和HH区域中像素点的位置设置原视频帧,得到图像waveletIn;步骤(1)中,背景帧初始时取视频第一帧,阈值帧中所有像素点的初始值均设为10;步骤(2)中,阈值更新公式如下:其中,Tn+1(x,y)表示第n+1帧阈值图像中(x,y)点的灰度值,Tn(x,y)...

【专利技术属性】
技术研发人员:杨若瑜孙建坤
申请(专利权)人:南京大学
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1