一种顾客装扮属性分析方法、系统和计算机设备技术方案

技术编号:20867396 阅读:44 留言:0更新日期:2019-04-17 09:31
本发明专利技术公开了一种顾客装扮属性分析方法、系统和计算机设备,方法包括:获取店内图片或/和视频数据,从中提取单张图片;通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片;通过训练好的第二深度卷积神经网络模型对所述顾客整体人形图片进行顾客装扮属性分析,获得顾客装扮属性的置信度;根据属性选择策略确定顾客装扮属性,输出对应的属性及置信度。本发明专利技术能快速准确的检测商店内顾客装扮属性,进而统计分析店内顾客的装扮风格、服装搭配等信息,有助于店家制定销售策略,促进销售量。

【技术实现步骤摘要】
一种顾客装扮属性分析方法、系统和计算机设备
本专利技术涉及大数据处理
,具体涉及一种顾客装扮属性分析方法、系统和计算机设备。
技术介绍
目前,尽管线上商店对线下商店存在一定的冲击,但是线下商店如各种大型商场、商品专卖店、超市等在人们的日常生活中仍然起着重要的作用。目前各种线下商店一个比较突出的问题是对顾客不感知,一方面没有专业人士或人力成本进行顾客属性分析,另一方面绝线下商店安装的摄像头主要是用来进行视频监控,防止偷盗发生并在必要时提供有力的视频证据,但并没有通过店内录像数据进行相应的数据挖掘,以及从海量的到店顾客身上挖掘有价值的信息。
技术实现思路
本专利技术的主要目的在于提出一种顾客装扮属性分析方法、系统和计算机设备,能快速准确的检测商店内顾客装扮属性,让店家知道店内顾客装扮属性,进而统计分析店内顾客的装扮风格、服装搭配等信息,有助于店家制定销售策略,促进销售量。本专利技术采用如下技术方案:一方面,本专利技术一种顾客装扮属性分析方法,包括:获取店内图片或/和视频数据,从中提取单张图片;通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片;通过训练好的第二深度卷积神经网络模型对所述顾客整体人形图片进行顾客装扮属性分析,获得顾客装扮属性的置信度;根据属性选择策略确定顾客装扮属性,输出对应的属性及置信度。优选的,所述通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片,具体包括:步骤a1,通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置(x1,y1,x2,y2),其中,x1和y1为人形框的左上角的坐标;x2和y2为人形框右下角的坐标;步骤a2,使用OpenCV库函数读取图片,并读取该图片中顾客人形框的位置,根据人形框矩形的左上角坐标(x1,y1)和右下角坐标(x2,y2)坐标来截取对应矩形中的图片,获得顾客整体人形图片。优选的,所述第一深度卷积神经网络模型采用ssd模型,使用预设大小图片作为输入,采用VGG16做基础模型,分别将VGG16的全连接层fc6转换成3*3卷积层conv6,将全连接层fc7转换成1*1卷积层conv7,同时将池化层pool5由原来的stride=2的2*2变成stride=1的3*3结构,然后移除dropout层和fc8层,并新增若干卷积层。优选的,所述第一深度学习模型的损失函数定义为置信度误差与位置误差的加权和,如下:其中,N是预设人形框的正样本数量;Lconf(x,c)表示置信度误差的损失函数,采用softmaxloss;α表示权重系数;Lloc(x,l,g)表示位置误差的损失函数,采用SmoothL1loss。优选的,所述第二深度卷积神经网络模型使用LightCNN作为特征抽取层,使用预设大小的彩色图片作为输入,经过LightCNN抽取特征后,对接两层全连接层最终输出若干个[0,1]的概率值来标志对若干种属性的置信度。优选的,所述第二深度卷积神经网络模型使用均方差作为损失函数,如下:其中,表示所有预测的属性的概率值,y表示所有预测属性的真实值,y∈{0,1},0代表本张图片没有这个属性,1代表本张图片有这个属性;表示第i个属性的预测概率值;yi表示第i个属性的真实值;n代表全部属性。优选的,所述根据属性选择策略确定顾客装扮属性,输出对应的属性及置信度,包括:将顾客装扮属性归类至互斥类或平行类;所述互斥类包括上衣、下装、鞋、高矮及胖瘦属性;除互斥类外的其他属性属于平行类;输出互斥类中置信度最大的属性及对应的置信度,同时输出平行类中的所有属性及对应的置信度。优选的,所述顾客装扮属性分析方法,还包括:逐一分析从店内录像数据中提取的多张图片,基于每张图片输出的装扮属性及其置信度,分析店内顾客的装扮属性分布以进行商品策略调整。第二方面,本专利技术一种顾客装扮属性分析系统,包括:图片提取模块,用于获取店内图片或/和视频数据,从中提取单张图片;人形图片提取模块,用于通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片;装扮属性置信度获取模块,用于通过训练好的第二深度卷积神经网络模型对所述顾客整体人形图片进行顾客装扮属性分析,获得顾客装扮属性的置信度;装扮属性输出模块,用于根据属性选择策略确定顾客装扮属性,输出对应的属性及置信度。第三方面,本专利技术一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现所述的顾客装扮属性分析方法。与现有技术相比,本专利技术的有益效果如下:(1)本专利技术一种顾客装扮属性分析方法、系统和计算机设备,能快速准确的检测商店内顾客装扮属性,让店家知道店内顾客装扮属性,进而统计分析店内顾客的装扮风格、服装搭配等信息,有助于店家制定销售策略,促进销售量;(2)本专利技术一种顾客装扮属性分析方法、系统和计算机设备,通过第一深度卷积神经网络模型能够快速检测到图片中的人形,并输出人形框位置;并使用OpenCV库函数截取人形图片;(3)本专利技术一种顾客装扮属性分析方法、系统和计算机设备,通过第二深度卷积神经网络模型对截取的人形图片进行顾客装扮属性分析,获得顾客装扮属性的置信度。上述说明仅是本专利技术技术方案的概述,为了能够更清楚地了解本专利技术的技术手段,从而可依照说明书的内容予以实施,并且为了让本专利技术的上述和其他目的、特征和优点能够更明显易懂,以下列举本专利技术的具体实施方式。根据下文结合附图对本专利技术具体实施例的详细描述,本领域技术人员将会更加明了本专利技术的上述及其他目的、优点和特征。附图说明图1为本专利技术实施例的顾客装扮属性分析方法的流程图;图2为本专利技术实施例的第一深度卷积神经网络模型结构图;图3为本专利技术实施例预测的装扮属性分析图,附图中包括属性及置信度;图4为本专利技术实施例的顾客装扮属性分析系统的结构图。具体实施方式为使本专利技术的目的、技术方案和优点更加清楚,下面将结合附图对本专利技术实施方式作进一步的详细描述。本专利技术公开了一种能快速准确的检测商店内顾客装扮属性的方法,其通过使用深度学习的人形检测算法、属性分析算法和大数据分析算法对商店内视频进行分析,能够让店家知道店内顾客装扮属性分布,进而统计分析店内顾客的装扮风格,服装搭配等信息,为店家制定销售策略提供数据支持。参见图1所示,一方面,本专利技术一种顾客装扮属性分析方法,包括:获取店内图片或/和视频数据,从中提取单张图片;通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片;通过训练好的第二深度卷积神经网络模型对所述顾客整体人形图片进行顾客装扮属性分析,获得顾客装扮属性的置信度;将顾客装扮属性归类至互斥类或平行类;所述互斥类包括上衣、下装、鞋、高矮及胖瘦属性;除互斥类外的其他属性属于平行类;输出互斥类中置信度最大的属性及对应的置信度,同时输出平行类中的所有属性及对应的置信度。本实施例中,一种顾客装扮属性分析方法,具体包括如下步骤本文档来自技高网...

【技术保护点】
1.一种顾客装扮属性分析方法,其特征在于,包括:获取店内图片或/和视频数据,从中提取单张图片;通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片;通过训练好的第二深度卷积神经网络模型对所述顾客整体人形图片进行顾客装扮属性分析,获得顾客装扮属性的置信度;根据属性选择策略确定顾客装扮属性,输出对应的属性及置信度。

【技术特征摘要】
1.一种顾客装扮属性分析方法,其特征在于,包括:获取店内图片或/和视频数据,从中提取单张图片;通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片;通过训练好的第二深度卷积神经网络模型对所述顾客整体人形图片进行顾客装扮属性分析,获得顾客装扮属性的置信度;根据属性选择策略确定顾客装扮属性,输出对应的属性及置信度。2.根据权利要求1所述的顾客装扮属性分析方法,其特征在于,所述通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置;根据所述人形框位置进行图片截取,获得顾客整体人形图片,具体包括:步骤a1,通过训练好的第一深度卷积神经网络模型对所述单张图片进行顾客人形检测,获取顾客人形框位置(x1,y1,x2,y2),其中,x1和y1为人形框的左上角的坐标;x2和y2为人形框右下角的坐标;步骤a2,使用OpenCV库函数读取图片,并读取该图片中顾客人形框的位置,根据人形框矩形的左上角坐标(x1,y1)和右下角坐标(x2,y2)坐标来截取对应矩形中的图片,获得顾客整体人形图片。3.根据权利要求2所述的顾客装扮属性分析方法,其特征在于,所述第一深度卷积神经网络模型采用ssd模型,使用预设大小图片作为输入,采用VGG16做基础模型,分别将VGG16的全连接层fc6转换成3*3卷积层conv6,将全连接层fc7转换成1*1卷积层conv7,同时将池化层poo15由原来的stride=2的2*2变成stride=1的3*3结构,然后移除dropout层和fc8层,并新增若干卷积层。4.根据权利要求3所述的顾客装扮属性分析方法,其特征在于,所述第一深度学习模型的损失函数定义为置信度误差与位置误差的加权和,如下:其中,N是预设人形框的正样本数量;Lconf(x,c)表示置信度误差的损失函数,采用softmaxloss;α表示权重系数;Lloc(x,l,g)表示位置误差的损失函数,采用SmoothL1loss。5.根据权利要...

【专利技术属性】
技术研发人员:张帅贾宝芝徐邵凯
申请(专利权)人:厦门瑞为信息技术有限公司
类型:发明
国别省市:福建,35

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1