The invention discloses a specific analytical method and system for pedestrian clothing, fashion map based on migration include: first, through the training data set are to initialize the model; then, the model is used to monitor the image analysis with pedestrians, and the introduction of the analytical results of constrained optimization; finally, through the example of the transfer learning method based on the weak migration model tag monitoring data set. The method of the invention can obtain the fashion clothes on information, combined with the weak supervision through the transfer of learning will be applied to the monitoring field, can remain in the field of fashion clothes to obtain analytical information, but also can improve the monitoring and analysis of effects of clothing, and greatly reduce the workload of data annotation. The validity of the proposed method is proved in the quantitative and qualitative test of the actual monitoring data set.
【技术实现步骤摘要】
基于时尚图迁移的特定行人衣物解析方法及系统
本专利技术涉及监控图像分割
,涉及一种行人衣物解析方法,尤其涉及一种基于时尚图迁移的特定行人衣物解析方法及系统。
技术介绍
衣物解析是一种针对具体衣物及人体部件的图像分割任务。虽然衣物解析是计算机视觉中近些年才兴起的研究热点,但其已广泛应用于人物识别、姿态估计、时尚图解析等领域。特别是与时尚图相关的衣物解析取得了较为成功的研究成果与应用,如:服装检索、电子商务等。与此同时,尽管针对监控视频中行人的衣物解析可以得到行人身份、位置、遮挡等智能安防系统中的关键信息,可为打击犯罪、维护社会安全方面提供有效手段,但与时尚图相比,目前对监控中的衣物解析的成果仍十分有限。目前实际监控场景中的衣物解析,主要面临两方面的挑战:(1)复杂的环境干扰,如光照变化、视角变化、低分辨率、运动模糊等;(2)分割标注工作任务量繁重,尤其流行的深度模型对训练数据量提出了更高的要求。虽然在高清时尚图像集中利用低级特征加人物姿态的方法取得了一定的效果[1]~[2],并在后来结合深度学习取得了更好的成果[3],但受限于监控场景的条件制约,监控视频中的衣物解析的相关进展较为缓慢。若能将高清图集中获取的信息迁移到监控图集中无疑是一种理想的解决上述两者挑战的途径。然而现有迁移方法仅仅关注属性级别的迁移[4]~[5]。针对以上问题,本专利技术提出了一种基于时尚图迁移的特定行人衣物解析方法,该方法可以利用时尚领域的衣物信息,通过迁移学习将其应用于监控领域,保留了时尚图集的优势,改善了监控衣物解析效果,并极大地减轻数据标注量。对已有类似的解析工作展开分析, ...
【技术保护点】
基于时尚图迁移的特定行人衣物解析方法,其特征是,包括:S100对时尚数据集进行训练,得到初始化的衣物解析模型;所述衣物解析模型用来解析人物图像,并预测各像素的衣物标签及各衣物标签对应的位置;S200利用衣物解析模型解析监控数据集中的监控图像,并引入条带以约束监控场景中的衣物标签,以修正衣物解析模型;S300利用监控数据集中的弱标签通过示例迁移学习更新衣物解析模型。
【技术特征摘要】
1.基于时尚图迁移的特定行人衣物解析方法,其特征是,包括:S100对时尚数据集进行训练,得到初始化的衣物解析模型;所述衣物解析模型用来解析人物图像,并预测各像素的衣物标签及各衣物标签对应的位置;S200利用衣物解析模型解析监控数据集中的监控图像,并引入条带以约束监控场景中的衣物标签,以修正衣物解析模型;S300利用监控数据集中的弱标签通过示例迁移学习更新衣物解析模型。2.如权利要求1所述的基于时尚图迁移的特定行人衣物解析方法,其特征是:所述对时尚数据集进行训练是,采用全卷积网络设计一具有45个类的端对端深度学习网络,以对时尚数据集进行训练。3.如权利要求1所述的基于时尚图迁移的特定行人衣物解析方法,其特征是:所述引入条带以约束监控场景中的衣物标签,以修正衣物解析模型,具体为:根据人体各部位比例的统计数据,采用条带将监控图像中行人划分为若干横向区域,各横向区域对应人体一部位,即一衣物标签对应一条带;采用衣物解析模型解析监控图像,获得各衣物标签对应像素的位置的解析结果,将该解析结果乘以衣物标签对应的fn(y),以修正衣物解析模型;所述其中,y表示衣物标签对应像素预测的纵坐标;n表示衣物标签的序号;fn(y)表示序号为n的衣物标签在纵坐标为y时衣物解析模型预测正确的可能性;Tn、Bn分别表示第n个衣物标签对应条带的上边缘和下边缘的纵坐标;Hn表示条带高度;αn、βn表示两个约束参数,为经验值。4.如权利要求1所述的基于时尚图迁移的特定行人衣物解析方法,其特征是:所述利用监控数据集中的弱标签通过示例迁移学习更新衣物解析模型,具体为:S310以时尚数据集初始化训练数据集;S320对监控数据集中各监控图像分别进行解析处理,并更新训练数据集;具体为:S321采用步骤S2方法修正后的衣物解析模型对监控图像进行解析,获得解析结果;S322计算监控图像的置信度C=ch·cl;采用经典CNN模型全局评估监控图像的分割图,获得置信度ch;所述cl表示对监控图像中衣物标签计算其对应的置信度,所述其中,f(·)是双曲正切函数;wp和wa分别表示位置项和面积项的权重;Dp表示监控图像中衣物标签中心位置和该衣物标签对应部位的平均中心位置的欧氏距离,所述平均中心位置为从监控数据集获得的统计值;g(|aL-a0|)表示aL向量和a0向量的差的平均值,aL的计算具体为:计算各衣物标签所占面和总解析面积的比构成向量;a0表示衣物标签对应部位的平均面积比,具体为当前衣物标签对应部位所占面积和总解析面积的比的平均值构成向量,该平均面积比为从监控数据集获得的统计值;S323比较置信度和置信度阈值的大小,若置信度大于置信度阈值,将该监控图像以及对应的解析结果放入训练数据集;否则,不放入训练数据集;S234对监控数据集中各监控图像分别重复步骤S321~S323,得到更新后的训练数据集;S330采用全卷积网络对更新后的训练数据集进行训练,得到更新后的衣物解析模型,采用步骤S2方法修正更新后的衣物解析模型;S340重复步骤S32...
【专利技术属性】
技术研发人员:胡瑞敏,郑淇,黄鹏,陈军,梁超,阮威健,熊明福,里想,黄文军,
申请(专利权)人:武汉大学,
类型:发明
国别省市:湖北,42
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。