服饰识别方法、装置、设备及介质制造方法及图纸

技术编号:30330078 阅读:23 留言:0更新日期:2021-10-10 00:33
本发明专利技术提供了一种服饰识别方法、装置、设备及介质,用以解决现有技术中属性识别不准确,从而导致行人识别不准确的问题。由于在本发明专利技术实施例中,通过服装款式识别模型,可以确定图像中服饰的款式,并通过类型识别模型可以确定图像中标志的位置信息、服饰的位置信息及服饰对应的服饰类别,并且进一步可以确定不同服饰类别对应的目标类型标识,另外由于图像中行人的服饰所占的区域较大、较为清晰,因此可以准确地识别图像中不同服饰类别对应的款式及目标类型标识,提高属性识别的准确性,从而提高行人识别的准确性。提高行人识别的准确性。提高行人识别的准确性。

【技术实现步骤摘要】
服饰识别方法、装置、设备及介质


[0001]本专利技术涉及图像处理
,尤其涉及一种服饰识别方法、装置、设备及介质。

技术介绍

[0002]近年来,随着视频监控技术的快速发展,每时每刻都会产生海量的视频图像数据。在海量的视频图像数据中,快速检索特定的行人是最重要的任务之一。其中,在进行行人检索时,是基于视频结构化描述构建的行人数据库,结合图像优选、属性识别、目标跟踪等计算机视觉算法进行检索的,因此对行人进行属性识别至关重要。
[0003]现有技术中属性识别的方法是对行人的外貌特征或人脸特征等特征进行识别,然而,外貌特征以及人脸特征都较多,并且在图像采集设备采集的图像中所占区域较小、较为模糊,在进行识别时极易出现识别不准确的问题,从而导致行人识别不准确。

技术实现思路

[0004]本专利技术提供了一种服饰识别方法、装置、设备及介质,用以解决现有技术中属性识别不准确,从而导致行人识别不准确的问题。
[0005]第一方面,本专利技术实施例提供了一种服饰识别方法,所述方法包括:
[0006]接收包含服饰的图像;通过预先训练的服饰款式识别模型,获取所述图像中服饰的款式;
[0007]通过预先训练的商标类型识别模型,获取所述图像中标志的位置信息、服饰的位置信息及服饰对应的服饰类别;
[0008]针对每个服饰类别,根据该服饰类别对应的服饰的标志的位置信息以及预先保存的不同类型标识对应的图像,确定该服饰类别对应的目标类型标识。
[0009]进一步地,所述服饰款式识别模型通过以下方式训练:
[0010]获取第一样本集中的任一样本图像,以及所述样本图像中包含的每个服饰的样本款式标识;
[0011]将所述样本图像输入到原始识别模型中,获取所述样本图像包含的每个服饰的识别款式标识;
[0012]根据所述样本款式标识和所述识别款式标识,对所述原始识别模型进行训练。
[0013]进一步地,所述方法还包括:
[0014]根据训练完成的原始识别模型对预先配置的服饰款式识别模型进行离线蒸馏学习训练,获取训练完成的服饰款式识别模型。
[0015]进一步地,所述根据该服饰类别对应的服饰的标识的位置信息以及预先保存的不同类型标识对应的图像,确定该服饰类别对应的目标类型标识包括:
[0016]采用预设的算法,确定服饰类别对应的服饰的标志的位置信息与预先保存的每个类型标识对应的图像的相似度;其中,所述预设的算法包括:局部敏感哈希算法;
[0017]将相似度最高且超过预设阈值的图像对应的类型标识,确定为该服饰类别对应的
目标类型标识。
[0018]进一步地,所述方法还包括:
[0019]针对所获取到的每个标志的位置信息,确定该标志的位置信息与所获取到的服饰的位置信息的重合度;将重合度最大的服饰的位置信息确定为目标服饰的位置信息;根据服饰的位置信息与服饰类别的对应关系,确定所述目标服饰的位置信息对应的目标服饰类别为该标志对应的服饰类别。
[0020]进一步地,所述通过预先训练的类型识别模型,获取所述图像中服饰的标志的位置信息包括:
[0021]通过预先训练完成的类型识别模型中的第一网络层,对所述图像进行特征提取,获取所述第一网络层中每个子网络层输出的特征图;
[0022]通过所述类型识别模型中的检测层,获取所述特征图中标志的每个位置信息;其中,所述标志的每个位置信息是根据预设数量的不同比例的锚盒anchor在所述特征图中框选出的包含所述标志的区域确定的,所述预设数量不小于四;
[0023]通过所述类型识别模型中的第二网络层,基于所述标志的每个位置信息,获取所述标志的位置信息。
[0024]进一步地,所述anchor的比例通过以下方式获取:
[0025]根据第二样本集中预先标注的标志的尺寸及服饰的尺寸,获取所述第二样本集中每个标志的长宽比及每个服饰的长宽比;
[0026]通过聚类算法及所述预设数量,对所述第二样本集中的每个标志的长宽比及每个服饰的长宽比进行聚类;
[0027]根据所确定的聚类结果中每一类别中标志的长宽比及服饰的长宽比,确定每个类别对应的anchor比例。
[0028]第二方面,本专利技术实施例提供了一种服饰识别装置,所述装置包括:
[0029]接收获取模块,用于接收包含服饰的图像;通过预先训练的服饰款式识别模型,获取所述图像中服饰的款式;通过预先训练的商标类型识别模型,获取所述图像中标志的位置信息、服饰的位置信息及服饰对应的服饰类别;
[0030]处理模块,用于针对每个服饰类别,根据该服饰类别对应的服饰的标志的位置信息以及预先保存的不同类型标识对应的图像,确定该服饰类别对应的目标类型标识。
[0031]进一步地,所述处理模块,还用于获取第一样本集中的任一样本图像,以及所述样本图像中包含的每个服饰的样本款式标识;将所述样本图像输入到原始识别模型中,获取所述样本图像包含的每个服饰的识别款式标识;根据所述样本款式标识和所述识别款式标识,对所述原始识别模型进行训练。
[0032]进一步地,所述处理模块,还用于根据训练完成的原始识别模型对预先配置的服饰款式识别模型进行离线蒸馏学习训练,获取训练完成的服饰款式识别模型。
[0033]进一步地,所述处理模块,具体用于采用预设的算法,确定服饰类别对应的服饰的标志的位置信息与预先保存的每个类型标识对应的图像的相似度;其中,所述预设的算法包括:局部敏感哈希算法;将相似度最高且超过预设阈值的图像对应的类型标识,确定为该服饰类别对应的目标类型标识。
[0034]进一步地,所述处理模块,还用于针对所获取到的每个标志的位置信息,确定该标
志的位置信息与所获取到的服饰的位置信息的重合度;将重合度最大的服饰的位置信息确定为目标服饰的位置信息;根据服饰的位置信息与服饰类别的对应关系,确定所述目标服饰的位置信息对应的目标服饰类别为该标志对应的服饰类别。
[0035]进一步地,所述接收获取模块,具体用于通过预先训练完成的类型识别模型中的第一网络层,对所述图像进行特征提取,获取所述第一网络层中每个子网络层输出的特征图;通过所述类型识别模型中的检测层,获取所述特征图中标志的每个位置信息;其中,所述标志的每个位置信息是根据预设数量的不同比例的锚盒anchor在所述特征图中框选出的包含所述标志的区域确定的,所述预设数量不小于四;通过所述类型识别模型中的第二网络层,基于所述标志的每个位置信息,获取所述标志的位置信息。
[0036]进一步地,所述接收获取模块,还用于根据第二样本集中预先标注的标志的尺寸及服饰的尺寸,获取所述第二样本集中每个标志的长宽比及每个服饰的长宽比;通过聚类算法及所述预设数量,对所述第二样本集中的每个标志的长宽比及每个服饰的长宽比进行聚类;根据所确定的聚类结果中每一类别中标志的长宽比及服饰的长宽比,确定每个类别对应的anchor比例。
[0037]第三方面,本专利技术实施例提供了本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种服饰识别方法,其特征在于,所述方法包括:接收包含服饰的图像;通过预先训练的服饰款式识别模型,获取所述图像中服饰的款式;通过预先训练的类型识别模型,获取所述图像中标志的位置信息、服饰的位置信息及服饰对应的服饰类别;针对每个服饰类别,根据该服饰类别对应的服饰的标志的位置信息以及预先保存的不同类型标识对应的图像,确定该服饰类别对应的目标类型标识。2.根据权利要求1所述的方法,其特征在于,所述服饰款式识别模型通过以下方式训练:获取第一样本集中的任一样本图像,以及所述样本图像中包含的每个服饰的样本款式标识;将所述样本图像输入到原始识别模型中,获取所述样本图像包含的每个服饰的识别款式标识;根据所述样本款式标识和所述识别款式标识,对所述原始识别模型进行训练。3.根据权利要求2所述的方法,其特征在于,所述方法还包括:根据训练完成的原始识别模型对预先配置的服饰款式识别模型进行离线蒸馏学习训练,获取训练完成的服饰款式识别模型。4.根据权利要求1所述的方法,其特征在于,所述根据该服饰类别对应的服饰的标识的位置信息以及预先保存的不同类型标识对应的图像,确定该服饰类别对应的目标类型标识包括:采用预设的算法,确定服饰类别对应的服饰的标志的位置信息与预先保存的每个类型标识对应的图像的相似度;其中,所述预设的算法包括:局部敏感哈希算法;将相似度最高且超过预设阈值的图像对应的类型标识,确定为该服饰类别对应的目标类型标识。5.根据权利要求1所述的方法,其特征在于,所述方法还包括:针对所获取到的每个标志的位置信息,确定该标志的位置信息与所获取到的服饰的位置信息的重合度;将重合度最大的服饰的位置信息确定为目标服饰的位置信息;根据服饰的位置信息与服饰类别的对应关系,确定所述目标服饰的位置信息对应的目标服饰类别为该标志对应的服饰类别。6.根据权利要求1所述的方法,其特征在于,所述通过预先训练的类型识别模型...

【专利技术属性】
技术研发人员:郑冬唐邦杰潘华东苏慧
申请(专利权)人:浙江大华技术股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1