当前位置: 首页 > 专利查询>云南大学专利>正文

一种基于背景解耦的异常行为检测方法技术

技术编号:38394829 阅读:12 留言:0更新日期:2023-08-07 11:10
本发明专利技术公开了一种基于背景解耦的异常行为检测方法,包括以下步骤:步骤1、图像数据收集;步骤2、图像数据预处理;步骤3、对预处理后的数据进行特征提取或特征构建;步骤4、选择适当的深度学习模型并训练;步骤5、模型评估:使用评估指标对训练好的模型进行评估,根据评估结果,调整模型参数或更换模型,以提高检测的准确率;步骤6、部署与监测:将训练好的模型部署到实际应用场景中,并对输入的数据进行实时监测和检测。本发明专利技术解决了现有检测方法容易具有偏向型、检测精度上下波动大等问题。检测精度上下波动大等问题。检测精度上下波动大等问题。

【技术实现步骤摘要】
一种基于背景解耦的异常行为检测方法


[0001]本专利技术属于目标行为检测领域,特别是涉及一种基于背景解耦的异常行为检测方法。

技术介绍

[0002]异常行为检测是指在特定场景下检测出背离正常行为模式的行为,在目标检测领域中异常行为检测可看作是一个高层次的图像理解操作,从输入的图像序列中提取逻辑信息并进行行为建模。通常建模的思路有两种:一种是首先学习正常行为的模型并以此为基础检测异常;另一种是通过批量或在线观察数据的统计特性自动学习正常和异常模型。对于特定场景下,人体异常行为存在复杂多样、较难明确定义的问题,对此,一种简单的解决方式是将人体行为分为两类,忽略中间的过渡行为,而分为正常行为和异常行为。因为对于如实验室这样的特定场景,异常行为识别的需求可能只是是否穿戴工作服和工作帽这类简单的分类问题,所以分为两类可以很好的解决异常行为定义的问题。目前随着社会保障体系的不断完善,公共摄像头已经形成了一个庞大的监控网络。然而,由于相关的视频监控录像中涉及的行人图像的数量往往是海量的,传统人工监控的方法效率非常低下,利用计算机处理监控视频进行异常行为检测有着非常重要的现实意义。
[0003]随着深度学习在计算机视觉领域的不断发展,学者们开始用深度学习进行异常行为的检测。Yi等将全局特征与局部特征融合同时使用卷积稀疏编码对异常行为进行分类,取得了比较好的检测效果。Jian等提出了3DCNN,通过3D卷积捕获沿空间和时间维度的特征,从而获得相邻帧之间的信息。Lim等提出了使用不同层的附加特征作为上下文和注意力机制去捕获图片多尺度信息增加检测的精度。
[0004]现有的异常行为检测模型包含如下几方面的缺点:
[0005](1)多样本特征融合算法的缺点
[0006]现有的多样本特征融合是将两个及以上的样本通过不同比例重合堆叠在一起之后,利用模型在一个样本上学习几个样本的全局信息,然而全局信息的堆叠极易产生冗余的特征,这些冗余的特征之间有着极强的耦合性,这些特征之间的耦合性容易导致模型的学习具有偏向性,无法学习到异常行为检测的具体特征,偏向性关注了多样本杂乱信息,模型性能极其不鲁棒。
[0007](2)数据增广算法的缺点
[0008]大部分数据增广算法(如高斯模糊、高斯噪声以及仿射变换等)在图像分类领域中达到了很好的效果,但是在异常行为检测领域内大部分数据增广算法无法使得模型性能提升,反而导致了或多或少的精度下降。究其原因在于直接对整张图片数据增广是属于粗粒度的数据增强,模型学习不到背景与前景耦合性特征,倾向于学习整张图片特征,以至于实际检测中模型检测极易受场景干扰,异常行为检测精度上下波动极大。

技术实现思路

[0009]为了达到上述目的,本专利技术提供了一种基于背景解耦的异常行为检测方法,以解决现有方法容易具有偏向型、检测精度上下波动大等问题。
[0010]为解决上述技术问题,本专利技术所采用的技术方案是,一种基于背景解耦的异常行为检测方法,包括以下步骤:
[0011]步骤1、图像数据收集;
[0012]步骤2、图像数据预处理;
[0013]步骤3、对预处理后的数据进行特征提取或特征构建;
[0014]步骤4、选择适当的深度学习模型并训练;
[0015]步骤5、模型评估:使用评估指标对训练好的模型进行评估,根据评估结果,调整模型参数或更换模型,以提高检测的准确率;
[0016]步骤6、部署与监测:将训练好的模型部署到实际应用场景中,并对输入的数据进行实时监测和检测。
[0017]进一步地,所述步骤1具体为:收集需要检测异常行为的数据,包括实时数据、历史数据以及模拟数据。
[0018]进一步地,所述步骤2中预处理具体为:对收集到的数据进行清洗、去重、标准化以及缺失值填充。
[0019]进一步地,所述步骤4中深度学习模型包括卷积神经网络、循环神经网络、自编码器。
[0020]进一步地,所述步骤4中的深度学习模型训练之前需对图像数据进行解耦:放入模型的每一张图像数据先进行随机策略:设定一个范围在0

1之间的随机数,若随机生成的数大于0.5不进行背景解耦;若随机生成的数小于等于0.5,则将对应的图像数据进行N
×
N等份切割,并分类为目标图像块和背景图像块;将分类后各图像块随机使用四种解耦方法之一,每一种解耦方法应用的图像块小于等于总图像块数的1/4。
[0021]进一步地,所述解耦方法包括基于数据增广的细粒度背景增强方法,具体为:通过自适应选择仿射变换、透视变换以及色调变换替换背景图像块区域。
[0022]进一步地,所述解耦方法包括基于多样本特征融合的细粒度背景融合方法,具体为:采用随机挑选的方式,将其他图像的背景信息进行细粒度模块化,利用基于邻域风险最小化原则的数据增强方法Mixup对其他图像的背景信息与当前解耦图像的背景信息进行融合,生成新的背景图像块,背景图像块生成方式如下:(x
n
,y
n
)=λ(x
i
,y
i
)+(1

λ)(x
j
,y
j
),其中,图像透明化的比例λ的取值范围介于0到1,(x
n
,y
n
)是插值生成的新背景图像块,(x
i
,y
i
)和(x
j
,y
j
)分别是当前解耦图像以及随机挑选的其他图像。
[0023]进一步地,所述解耦方法包括基于注意力机制的细粒度背景信息降权方法,具体为:利用注意力机制快速计算出原有样本背景图像块的权重值,然后在每一个背景图像块中乘上对应的权重值;所述注意力机制为:Attention=f(g(x),x),所述g(x)表示基于输入图像x产生注意力值,所述注意力值对应对判别区域的关注程度,f(g(x),x)表示基于注意力g(x)处理输入图像x。
[0024]进一步地,所述解耦方法包括基于高斯噪声的前景图像块增强方法,具体为:在原有图像划分为前景图像块和背景图像块后,将高斯噪声随机加在前景图像块上,计算公式
为:
[0025][0026]其中,μ,δ2为分布的参数,分别为高斯分布的期望和方差,p(x)为经过高斯函数计算后输出的带有高斯噪声的图像,x为输入图像;δ表示标准差,用于描述正态分布资料数据分布的离散程度;e是自然对数的底数。
[0027]进一步地,所述评估指标包括精确度、召回率、F1值以及ROC曲线。
[0028]本专利技术的有益效果是:
[0029](1)本专利技术提出的基于数据增广细粒度分配机制的异常行为检测方法,首先将场景划分为前景与背景,针对性的将背景区域块划分成N
×
N等份区间,随后通过仿射变换、透视变换以及色调变换等数据增广算法随机对不同的背景图像块进行增强,细粒度的丰富了背景信息,可以有效避免实际场景中光照、角度变化和遮本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于背景解耦的异常行为检测方法,其特征在于,包括以下步骤:步骤1、图像数据收集;步骤2、图像数据预处理;步骤3、对预处理后的数据进行特征提取或特征构建;步骤4、选择适当的深度学习模型并训练;步骤5、模型评估:使用评估指标对训练好的模型进行评估,根据评估结果,调整模型参数或更换模型,以提高检测的准确率;步骤6、部署与监测:将训练好的模型部署到实际应用场景中,并对输入的数据进行实时监测和检测。2.根据权利要求1所述的一种基于背景解耦的异常行为检测方法,其特征在于,所述步骤1具体为:收集需要检测异常行为的数据,包括实时数据、历史数据以及模拟数据。3.根据权利要求1所述的一种基于背景解耦的异常行为检测方法,其特征在于,所述步骤2中预处理具体为:对收集到的数据进行清洗、去重、标准化以及缺失值填充。4.根据权利要求1所述的一种基于背景解耦的异常行为检测方法,其特征在于,所述步骤4中深度学习模型包括卷积神经网络、循环神经网络、自编码器。5.根据权利要求1或4所述的一种基于背景解耦的异常行为检测方法,其特征在于,所述步骤4中的深度学习模型训练之前需对图像数据进行解耦:放入模型的每一张图像数据先进行随机策略:设定一个范围在0

1之间的随机数,若随机生成的数大于0.5不进行背景解耦;若随机生成的数小于等于0.5,则将对应的图像数据进行N
×
N等份切割,并分类为目标图像块和背景图像块;将分类后各图像块随机使用四种解耦方法之一,每一种解耦方法应用的图像块小于等于总图像块数的1/4。6.根据权利要求5所述的一种基于背景解耦的异常行为检测方法,其特征在于,所述解耦方法包括基于数据增广的细粒度背景增强方法,具体为:通过自适应选择仿射变换、透视变换以及色调变换替换背景图像块区域。7.根据权利要求5所述的一种基于背景解耦的异常行为检测方法,其特征在于,所述解耦方法包括基于多样本特征融合的细粒度背景融合方法,具体为:采用随机挑选的方式,将其他图像的背景信息进行细粒度模块化...

【专利技术属性】
技术研发人员:杨云王罕文杜飞王耀威
申请(专利权)人:云南大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1