一种基于编解码结构的人群计数定位方法技术

技术编号:32518402 阅读:22 留言:0更新日期:2022-03-02 11:17
本发明专利技术公开了一种基于编解码结构的人群计数定位方法,涉及计算机视觉领域,解决现有技术中对特征的利用不够充分、标签图不能很好的兼顾计数和定位任务的问题,本发明专利技术技术方案其一是提出了一种编解码结构的计数定位网络,并在网络深层引入了多尺度特征融合模块,以及再解码部分引入了空间

【技术实现步骤摘要】
一种基于编解码结构的人群计数定位方法


[0001]本专利技术涉及计算机视觉领域,具体涉及一种基于编解码结构的人群计数定位方法。

技术介绍

[0002]人群计数及定位是通过算法预测人群中的数量信息及位置信息。该技术广泛用于城市管理,智能安防等领域,尤其是在人群聚集场所,对于预防各种意外事件的发生和加强区域管理具有重要意义。目前,在计数领域,广泛使用的方法是通过卷积神经网络回归得到密度图,然后对密度图进行积分求和得到人数信息。但是密度图在稍密集的区域便会出现重叠现象(如图8(b)),不利于定位,为了拓展网络应用场景,一种做法是利用FIDT图(如图8(c))替代密度图当做深度学习回归标签进行训练,再将图片送入训练好的网络得到预测图,然后通过LMDS算法寻求峰值点,从而给出定位和计数信息。然而,相较于密度图,FIDT图虽然定位性能更好,但其计数方式却更为繁琐且对标签图的回归质量有较高要求。此外,在网络结构方面,为了获得高质量的回归图,编解码结构被许多算法采用,其大致流程是将图片先进行编码提取特征,再逐步上采样至输入尺寸进行解码,但编解码结构在网络深层存在特征丢失,限制了其性能发挥;另一方面,实际场景中人头往往尺度不一,这就要求网络还要具备捕获多尺度信息的能力。对于上述问题,本文从标签图和特征融合两个方面进行解决。
[0003]现存技术存在的主要问题及缺陷是:
[0004]对特征的利用不够充分:现实场景中,由于摄像机透视效应的影响,同一张图片,人头部尺寸往往存在较大差异,但简单的编解码结构并不能很好的捕捉多尺度特征。此外,在编码过程中,会对特征图进行下采样,以获得更高级的语义信息,但这也会造成深层网络空间信息不足;值得注意的是,浅层网络中,虽然语义信息不足,却包含了丰富的空间位置信息,这些信息对于计数及定位性能非常重要。因此,如果直接在编码结束时,对特征图进行上采样,生成的预测图在图像质量上会显得比较粗糙。现有的部分方式是直接将浅层特征同高层特征进行融合,但浅层网络通畅包含大量的特征冗余,直接引入甚至可能导致性能下降。
[0005]标签图不能很好的兼顾计数和定位任务:当前主流算法采用的密度图,虽然计数方便,但定位性能较弱,在稍密集的区域就会出现重叠现象,不能准确突出人头峰值点;而FIDT图计数性能虽强但计数方式不如密度图简洁,其计数精度也同定位精度联系紧密,对标签图的回归质量具有较高要求。
[0006]解决以上问题及缺陷的难度为:编解码网络中,要想充分利用所提取的特征,特征融合就在所难免,考虑到浅层特征存在特征冗余,就需要设计一种注意力特征融合模块,而想要捕获多尺度特征,还需在网络中增加多尺度特征融合模块;在标签方面,为了灵活的进行计数和定位任务,需要标签图既要具有简洁的计数方式,又要兼顾良好的定位性能,但现存标签图均不具备此特征,需要对标签图的生成方式进行重新设计。
[0007]解决以上问题及缺陷的意义为:新的标签图可以兼顾计数和定位任务,可以直接替换已有算法训练所使用的密度图和FIDT图,增加任务灵活性。而提升了特征利用能力的编解码网络可以进一步的提高计数和定位性能,同时还可以在计算机视觉的其它领域如语义分割上迁移运用。

技术实现思路

[0008]本专利技术的目的在于:为了解决上述技术问题,本专利技术提供了一种基于编解码结构的人群计数定位方法。
[0009]本专利技术采用的技术方案如下:
[0010]一种标签图生成方法,所述方法包括以下步骤:
[0011]步骤S1、制作数据集;先采集实际场景中包括不同环境下的人群图像数据,先图像数据可以包括人群密度和光照天气,再对数据进行标注;
[0012]步骤S2、生成标签图;根据标注好的数据生成标签图,标签图的生成方式如下:
[0013][0014][0015][0016]其中,B为标注点坐标集合,(x

,y

)为标记点在标签图中的像素坐标,其中x

表示标记点在标签图中横坐标,y

表示标记点在标签图中纵坐标;(x,y)表示图像中任意一点的像素坐标,其中x为图像中任意一点的横坐标,y为图像中任意一点的纵坐标,P(x,y)表示的是图中坐标(x,y)处到与之相距最近的标记点的距离,I(x,y)即为FIDT图中坐标(x,y)处对应点值,I

(x,y)表示本专利技术所提标签图坐标(x,y)处对应点的值,count表示图片中的真实人数,m、n分别表示图片的宽高,I(x
i
,y
i
)表示FIDT图中第i个点的值,(x
i
,y
i
)表示FIDT图中第i个点的坐标,其中,x
i
和y
i
分别表示FIDT图中第i个点的横纵坐标。
[0017]进一步地,所述S1中对数据进行标注时,采用头部中心进行标记。
[0018]一种基于编解码结构的人群计数定位方法,所述方法包括以下步骤:
[0019]步骤1:构建网络模型,以ResNet50作为编码部分的特征提取网络,在编码结束时融入多尺度特征融合模块,在解码部分采用上采样加卷积的方式进行解码,并通过空间

通道注意力上采样模块进行高低层特征的融合;
[0020]步骤2:利用步骤S1采集的数据、同步骤S2生成的标签进行训练,损失函数设计为欧式距离损失和平均绝对误差相结合的方式,如下所示:
[0021][0022]其中,L(θ)表示损失函数,F
i
为第i幅标签图,F
i
(x
i
,θ)为对应预测图,θ为学习参数,N为图片数量;训练时可对图片进行随机裁剪以及随机水平翻转等数据增强,以提高模型鲁棒性;
[0023]步骤3:进行计数定位测试,将图片送入训练好的模型中,若只需计数,将预测图进行积分求和即可,若还需定位,则利用LMDS算法对预测图进行进一步处理,得到定位信息及框图。
[0024]进一步地,所述步骤1中的特征提取网络,具体由Resnet50的7x7卷积、最大池化层及前三个残差模块构成,其中对将7x7卷积的步长调整为1,其余部分保持同原始的ResNet50不变,第一个残差模块不会压缩图像尺度,后两个残差模块都会将特征图尺度压缩到相应输入的一半,最终将图片尺度压缩为原图的1/8。
[0025]进一步地,所述多尺度特征融合模块包含四个分支,分别由膨胀率为1,2,3,6的四组空洞卷积构成,不同的分支负责捕获不同尺寸的特征,最后按通道进行拼接,通过1x1卷积,进一步融合特征并压缩通道维度。
[0026]进一步地,特征融合方式如下式:
[0027][0028]其中,F
in
和F
out
分别表示输入特征和输出特征;表示卷积核大小为k,膨胀率为i为的卷积运算,其中这里的i取值分别为1,2,3,6,分别对应四组膨胀卷积;concat表示特征拼接操作。
...

【技术保护点】

【技术特征摘要】
1.一种标签图生成方法,其特征在于,所述方法包括以下步骤:步骤S1、制作数据集;先采集实际场景中包括不同环境下的人群图像数据,再对数据进行标注;步骤S2、生成标签图;根据标注好的数据生成标签图,标签图的生成方式如下:步骤S2、生成标签图;根据标注好的数据生成标签图,标签图的生成方式如下:步骤S2、生成标签图;根据标注好的数据生成标签图,标签图的生成方式如下:其中,B为标注点坐标集合,(x

,y

)为标记点在标签图中的像素坐标,其中x

表示标记点在标签图中横坐标,y

表示标记点在标签图中纵坐标;(x,y)表示图像中任意一点的像素坐标,其中x为图像中任意一点的横坐标,y为图像中任意一点的纵坐标,P(x,y)表示的是图中坐标(x,y)处到与之相距最近的标记点的距离,I(x,y)即为FIDT图中坐标(x,y)处对应点值,I

(x,y)表示本发明所提标签图坐标(x,y)处对应点的值,count表示图片中的真实人数,m、n分别表示图片的宽高,I(x
i
,y
i
)表示FIDT图中第i个点的值,(x
i
,y
i
)表示FIDT图中第i个点的坐标,其中,x
i
和y
i
分别表示FIDT图中第i个点的横纵坐标。2.根据权利要求1所述的一种基于编解码结构的人群计数定位方法,其特征在于,所述S1中对数据进行标注时,采用头部中心进行标记。3.一种基于编解码结构的人群计数定位方法,其特征在于,所述方法包括以下步骤:步骤1:构建网络模型,以ResNet50作为编码部分的特征提取网络,在编码结束时融入多尺度特征融合模块,在解码部分采用上采样加卷积的方式进行解码,并通过空间

通道注意力上采样模块进行高低层特征的融合;步骤2:利用步骤S1采集的数据、同步骤S2生成的标签进行训练,损失函数设计为欧式距离损失和平均绝对误差相结合的方式,如下所示:其中,L(θ)表示损失函数,F
i
为第i幅标签图,F
i
(x
i
,θ)为对应预测图,θ为学习参数,N为图片数量;步骤3:进行计数定位测试,将图片送入训练好的模型中,若只需计数,将预测图进行积分求和即可,若还需定位,则利用LMDS算法对预测图进行进一步处理,得到定位信息及框图。4.根据权利要求3所述的一种基于编解码结构的人群计数定位方法,其特征在于,所述步骤1中的特征提取网络,具体由Resnet50的7x7卷积、最大池化层及前三个残差...

【专利技术属性】
技术研发人员:黄进杨涛王晴杨旭李剑波方铮冯义从
申请(专利权)人:西南交通大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1