【技术实现步骤摘要】
一种基于浅层纹理提取的跨域重识别方法及相关设备
[0001]本专利技术涉及机器视觉
,尤其涉及一种基于浅层纹理提取的跨域重识别方法、系统、终端及计算机可读存储介质。
技术介绍
[0002]随着经济与科技的快速发展,我国的城市化进程正在稳步推进,各个场景中的监控摄像机数量不断增加,十分有利于智能监控技术的落地。利用辅助特征表征学习的方式增加额外的注释信息或训练样本来强化神经网络模型学习到的特征已经引起重视。
[0003]近年来,有不少方法被提出,例如,结合预测的语义属性信息,提出了一个深度属性学习框架,增强了半监督学习中特征表示的可推广性和鲁棒性;利用视点信息来增强特征;将每个相机看作不同的域,提出了一种多摄像机一致匹配约束,用以在深度学习框架中获得全局最优表示;尝试将GAN用于重识别,改进了基于生成的行人图像的有监督特征表示学习。然而,以上方法都没有考虑纹理信息。已知不同场景获取的数据集风格各不相同,为了增加样本数量来提高模型的泛化性能,就要将不同数据集的风格进行迁移生成更多训练样本。而风格往往和样本的纹理特征相关,对纹理特征进行约束,可以提高风格迁移效果。而在重识别任务中,如果获取样本的相机视角不理想,会导致目标在图像上的有效感受区域、位置不同,造成部分检测结果中背景区域占比过大。
[0004]因此,现有技术还有待于改进和发展。
技术实现思路
[0005]本专利技术的主要目的在于提供一种基于浅层纹理提取的跨域重识别方法、系统、终端及计算机可读存储介质,旨在解决现有技术中在重识别 ...
【技术保护点】
【技术特征摘要】
1.一种基于浅层纹理提取的跨域重识别方法,其特征在于,所述基于浅层纹理提取的跨域重识别方法包括:获取源域数据集和目标域数据集,将所述源域数据集和所述目标域数据集输入到循环生成对抗网络;从所述源域数据集和所述目标域数据集分别采样得到源域图片和目标域图片,所述循环生成对抗网络根据所述目标域图片的风格将所述源域图片转化为与所述目标域图片的风格接近的生成图片,并将所述生成图片、所述源域图片和所述目标域图片输入到重识别模型;分别提取所述生成图片、所述源域图片与所述目标域图片输入所述重识别模型后得到的浅层特征图以及深层特征图,并进行损失计算;根据损失计算梯度,更新所述循环生成对抗网络与所述重识别模型的参数;获得更新后的循环生成对抗网络,使用更新后的循环生成对抗网络将所述源域数据集转换成所述目标域数据集的风格;将更新后的循环生成对抗网络生成的图片送入多粒度特征提取模型进行训练,以得到跨域识别性能提高的重识别模型。2.根据权利要求1所述的基于浅层纹理提取的跨域重识别方法,其特征在于,所述获取源域数据集和目标域数据集,将所述源域数据集和所述目标域数据集输入到循环生成对抗网络,具体包括:获取所述源域数据集和所述目标域数据集,从所述源域数据集和所述目标域数据集中随机采样k个样本;将采集的k个样本输入到所述循环生成对抗网络,生成对抗损失分别为:将采集的k个样本输入到所述循环生成对抗网络,生成对抗损失分别为:其中,G表示循环生成对抗网络的目标域生成器;F表示源域生成器;D
T
表示目标域判别器;D
S
表示源域判别器;A表示源域图片;B表示目标域图片;L
adv
(G,D
T
)表示循环生成对抗网络的目标域生成器G的生成对抗损失;L
adv
(F,D
S
)表示循环生成对抗网络的源域生成器F的生成对抗损失;表示服从于目标域图片B的数据分布;D
T
(B)表示目标域判别器D
T
判断目标域图片B是目标域或不是目标域的判别结果;表示服从于源域图片A的数据分布;G(A)表示将源域图片A送入循环生成对抗网络的目标域生成器G后生成的图片;D
S
(A)表示源域判别器D
S
判断源域图片A是源域或不是源域的判别结果;D
S
(F(B))表示源域判别器D
S
判断将目标域图片B送入循环生成对抗网络的源域生成器F后生成的图片是源域或不是源域的判别结果;循环一致损失表示为:其中,F(G(A))表示将源域图片A送入循环生成对抗网络的目标域生成器G后生成的图片G(A)送入循环生成对抗网络的源域生成器F后生成的图片;G(F(B))表示将目标域图B送
入循环生成对抗网络的源域生成器F后生成的图片F(B)送入循环生成对抗网络的目标域生成器G后生成的图片;域内身份损失表示为:其中,F(A)表示将源域图片A送入循环生成对抗网络的源域生成器F后生成的图片;F(B)表示将目标域图片B送入循环生成对抗网络的源域生成器F后生成的图片;总体损失函数表示为:L
CycleGAN
(G,F,D
S
,D
T
)=L
adv
(G,D
T
)+L
adv
(F,D
S
)+λ1L
rec
(G,F)+λ2L
idt
(G,F);其中,λ1和λ2表示权重。3.根据权利要求2所述的基于浅层纹理提取的跨域重识别方法,其特征在于,所述将所述生成图片、所述源域图片和所述目标域图片输入到重识别模型,具体包括:将源域图片A、生成图片A
′
和目标域图片B输入到重识别模型;源域图片A、生成图片A
′
和目标域图片B经过重识别模型提取的特征分别表示为M(A)、M(A
′
)和M(B)。4.根据权利要求3所述的基于浅层纹理提取的跨域重识别方法,其特征在于,所述分别提取所述生成图片、所述源域图片与所述目标域图片输入所述重识别模型后得到的浅层特征图以及深层特征图,并进行损失计算,具体包括:重识别模型提取生成图片A
′
、源域图片A和目标域图片B的的深层特征编码向量分别为M(A
′
)、M(A)和M(B);利用Triplet损失,构造深层特征编码的损失为:L
triplet
(A,B)=max{||M(G(A))
‑
M(A)||2‑
||M(G(A))
‑
M(B)||2+m,0};其中,M(G(A))表示将源域图片A送入循环生成对抗网络的目标域生成器G后生成的图片G(A)经过重识别模型提取的特征;m表示阈值;重识别模型提取生成图片A
′
和目标域图片B的浅层纹理特征分别为M
j
(A
′
)和M
j
(B),其中M
j
(
·
)表示重识别模型骨干网络所提取的第j个卷积层输出的特征图;计算浅层风格纹理损失表示为:其中,C
j
H
j
W
j
表示特征M
j
(G(A))和M
j
(B)在宽、高、通道三个维度展开后得到的长度;M
j
(G(A))表示将源域图片A送入循环生成对抗网络的目标域生成器G后生成的图片G(A)经过重识别模型第j个卷积层提取的特征。5.根据权利要求4所述的基于浅层纹理提取的跨域重识别方法,其特征在于,所述根据损失计算梯度,更新所述循环生成对抗网络与所述重识别模型的参数,具体包括:最终得到的损失表示为:L
Proposed
(G,F,D
S
,D
T
)=L
adv
(G,D
T
)+L
adv
(F,D
S
)+λ1L
rec
(G,F)+λ2L
idt
(G,F)+λ3L
triplet
(G,F,M)+λ4L
texture
(G,F,M);其中,λ3和λ4表示权重;L
triplet
(G,F,M)表示L
triplet
(A,B);L
texture
(G,F,M)表示L
texture
(A,B);
根据损失对特征求偏导数;根据偏导数分别对梯度方向的负方向进行梯度下降法迭代学习,更新循环生成对抗网络和重识别模型的参数。6.根据权利要求5所述的基于浅层纹理提取的跨域重识别方法,其特征在于,所述获得更新后的循环生成对抗网络,使用更新后的循环生成对抗网络将所述源域数据集转换成所述目标域数据集的风格,具体包括:调用训练好的循环生成对抗网络,将源域数据集输入到训练好的循环生成对抗网络;循环生成对抗网络的生成器将源域数据集转换成具有目标域数据集的风格的生成数据集。7.根据权利要求6所述的基于浅层纹理提取的跨域重识别...
【专利技术属性】
技术研发人员:徐颖,陈晓清,蔡大森,汤俊杰,陈明伟,
申请(专利权)人:深圳大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。