当前位置: 首页 > 专利查询>广州大学专利>正文

一种基于机器视觉的商场人流量分析方法技术

技术编号:39297080 阅读:13 留言:0更新日期:2023-11-07 11:05
一种基于机器视觉的商场人流量分析方法,其特征在于,包括以下步骤:S1:对Yolov5网络进行改进;S2:对deepSORT算法进行改进;S3:使用改进后的Yolov5网络训练模型;S4:使用训练好的模型对商场高清监控视频进行测试;S5:将坐标集打印在二维平面中,进行人流走向分析。本发明专利技术提供的技术方案使用了更适合检测行人的先验框,提高了检测行人目标的准确率,减少了训练模型的时间。训练模型的时间。训练模型的时间。

【技术实现步骤摘要】
一种基于机器视觉的商场人流量分析方法


[0001]本专利技术属于机器视觉领域,具体涉及一种基于机器视觉的商场人流量分析方法。

技术介绍

[0002]商场是人群容易高度集聚的地方,对商场中的各位置各门店的人群聚集程度和人流量走向进行分析对商场的管理以及各门店经营方式的调整有重大意义。
[0003]现阶段对商场人流量分析的方法有很多,比如人工监控观测,但比较耗时耗人力;也有一些对监控视频的检测技术,但都存在目标检测准确率不高,目标容易丢失,无法正确判断人流走向的问题。

技术实现思路

[0004]鉴于现有问题,本专利技术的目的在于提供一种基于机器视觉的商场人流量分析方法,其特征在于,包括以下步骤:S1:对Yolov5网络进行改进;S2:对deepSORT算法进行改进;S3:使用改进后的Yolov5网络训练模型;S4:使用训练好的模型对商场高清监控视频进行测试;S5:将坐标集打印在二维平面中,进行人流走向分析。
[0005]优选地,步骤S1具体包括:修改Yolov5用于预检测目标先验框的大小,其中,调整第一组先验框大小为[10,30,12,40,18,54],第二组先验框的大小为[20,60,25,75],第三组先验宽大小为[30,90,40,120];将Yolov5s.yaml文件中的conv模块改为使用cbam注意力模块,cbam注意力模块包括通道和空间两个部分,其中,通道的算法如下:
[0006][0007]其中,F为前一个卷积的输出特征,σ为sigmoid操作,MLP指通过多层感知机操作,AvgPool表示全局平均值池化操作,MaxPool表示全局最大值池化操作;空间的算法如下:
[0008]M
s
(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))
[0009]其中,F为channel输出的特征,σ为sigmoid操作,7
×
7表示卷积核的大小,AvgPool表示全局平均值池化操作,MaxPool表示全局最大值池化操作。
[0010]步骤S1还包括:使用soft

NMS替换yolov5网络原来的NMS,其中,soft

NMS算法如下:
[0011][0012][0013]其中,s
i
表示第i个预测框的得分,b
i
表示第i个待处理框,M表示为当前得分最高的预测框,σ为超参数。
[0014]步骤S2对deepSORT进行改进,当追踪的目标被遮挡后使用新的解决目标遮挡问题
的办法,具体包括以下步骤:
[0015]S41:对于轨迹集中发生目标消失的轨迹track
i
,根据卡尔曼滤波预测轨迹中的目标在下一个时刻的位置记track
i
中最后一个目标为det
l

[0016]S42:在的τ
c
距离范围内,查找检测集中与之距离最近的目标,记为det
j
,其中,τ
c
为超参数;
[0017]S43:如果det
j
已经与其他轨迹关联,且det
j
包围框的面积与det
l
包围框的面积比小于τ
m
,则认为是发生了目标完全遮挡;此时,新建目标det
k
,其位置坐标及包围框大小与det
j
一致,而检测特征和表观特征与track
i
一致,将det
k
加入track
i
中,其中,τ
m
为超参数;
[0018]S44:如果det
j
已经与其他轨迹关联,且det
j
包围框的面积与det
l
包围框的面积比不小于τ
m
,则认为是发生了目标部分遮挡;此时,在det
j
包围框的范围内使用滑动窗口的方法寻找一个大小与det
l
相同,与track
i
之间的相似度最大且大于τ
t

t
未超参数)的目标,作为分离出来的新目标,记作det
r
,将det
r
加入track
i
中,其中,τ
t
为超参数;
[0019]S45:如果det
j
未与其他轨迹关联,且det
j
包围框的面积与det
l
包围框的面积比小于τ
m
,则认为det
j
不属于track
i
中,不进行任何操作;
[0020]S46:如果det
j
未与其他轨迹关联,且det
j
包围框的面积与det
l
包围框的面积比不小于τ
m
,则认为是发生了目标部分遮挡,按步骤S44处理。
[0021]优选地,步骤S3使用改进后的Yolov5网络训练模型,训练过程中使用公开的crowdhuman行人数据集,训练参数为:图片尺寸:1024;单词训练样本数:16;训练次数:100。
[0022]优选地,步骤S4把视频中检测到的目标的特征输入到改进后的deepSORT算法中,在视频中自动打印出检测到的目标的真实框,对每个不同的目标进行标序号,实现对每一个目标每一帧的跟踪。
[0023]步骤S4在视频检测时,打印出每个目标真实框的下边框中心点p的坐标,并把每一个目标在所有帧中的p的坐标保持为一个txt文件,所有txt文件作为一个坐标集,其中,真实框的下边框中心点p的坐标值通过以下公式计算:
[0024][0025]其中,表示第i帧第j个目标的真实框的下边框中心点的坐标,表示该边框左上角点的横坐标,表示该边框右下角点的横坐标,表示该边框右下角点的纵坐标。
[0026]其中,表示第i帧第j个目标的真实框的下边框中心点的坐标,表示该边框左上角点的横坐标,表示该边框右下角点的横坐标,表示该边框右下角点的纵坐标。
[0027]优选地,步骤S4对视频每一帧的行人进行统计,并在输出视频的左上角打印每一帧检测到的人数。
[0028]优选地,步骤S5具体为:把坐标集打印在二维平面图中,其中,行人之间用颜色的线条描点构成人流轨迹,轨迹起点用对应颜色的圆形符号表示。
[0029]本专利技术的有益技术效果在于:
[0030]本专利技术提供的技术方案使用了更适合检测行人的先验框,提高了检测行人目标的准确率,也减少了训练模型的时间;通过cbam注意力模块与yolov5算法结合的算法,使检测时系统更注重对目标的检测,提高了检测的准确率;使用新的目标遮挡处理算法,提高提高对行人跟踪的准确率,减少因行人遮挡而出现的目标的丢失的概率。
附图说明
[0031]图1是本专利技术提供的一本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于机器视觉的商场人流量分析方法,其特征在于,包括以下步骤:S1:对Yolov5网络进行改进;S2:对deepSORT算法进行改进;S3:使用改进后的Yolov5网络训练模型;S4:使用训练好的模型对商场高清监控视频进行测试;S5:将坐标集打印在二维平面中,进行人流走向分析。2.根据权利要求1所述的一种基于机器视觉的商场人流量分析方法,其特征在于,所述步骤S1具体包括:修改Yolov5用于预检测目标先验框的大小,其中,调整第一组先验框大小为[10,30,12,40,18,54],第二组先验框的大小为[20,60,25,75],第三组先验宽大小为[30,90,40,120];将Yolov5s.yaml文件中的conv模块改为使用cbam注意力模块,cbam注意力模块包括通道和空间两个部分,其中,通道的算法如下:其中,F为前一个卷积的输出特征,σ为sigmoid操作,MLP指通过多层感知机操作,AvgPool表示全局平均值池化操作,MaxPool表示全局最大值池化操作;空间的算法如下:M
s
(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))其中,F为channel输出的特征,σ为sigmoid操作,7
×
7表示卷积核的大小,AvgPool表示全局平均值池化操作,MaxPool表示全局最大值池化操作。3.根据权利要求2所述的一种基于机器视觉的商场人流量分析方法,其特征在于,所述步骤S1还包括:使用soft

NMS替换yolov5网络原来的NMS,其中,soft

NMS算法如下:NMS算法如下:其中,s
i
表示第i个预测框的得分,b
i
表示第i个待处理框,M表示为当前得分最高的预测框,σ为超参数。4.根据权利要求3所述的一种基于机器视觉的商场人流量分析方法,其特征在于,所述步骤S2对deepSORT进行改进,当追踪的目标被遮挡后使用新的解决目标遮挡问题的办法,具体包括以下步骤:S41:对于轨迹集中发生目标消失的轨迹track
i
,根据卡尔曼滤波预测轨迹中的目标在下一个时刻的位置记track
i
中最后一个目标为det
l
;S42:在的τ
c
距离范围内,查找检测集中与之距离最近的目标,记为det
j
,其中,τ
c
为超参数;S43:如果det
j
已经与其他轨迹关联,且det
j
包围框的面积与det
l
包围框的面积比小于τ
m
,则认为是发生了目标完全遮挡;此时,新建目标det
k
,其位置坐标及包围框大小与det
j
一致,而检测特征和表观特征与track
i
一致,将det
k
加入track
i
中,其中,τ
m
为超参...

【专利技术属性】
技术研发人员:朱静潘梓沛尹邦政陈宇瀚包希哲董骥阳李捷平
申请(专利权)人:广州大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1