当前位置: 首页 > 专利查询>邓毅华专利>正文

一种面向超市货架图像的智能目标检测方法技术

技术编号:26531531 阅读:49 留言:0更新日期:2020-12-01 14:12
一种面向超市货架图像的智能目标检测方法,包括以下步骤:构造与训练目标检测神经网络,构造混合高斯分布模型,依据高斯重合率进行高斯聚类,判定目标位置和类别。本发明专利技术提高了对超市货架图像中密集目标的检测准确度,消除了目标矩形重叠问题。

【技术实现步骤摘要】
一种面向超市货架图像的智能目标检测方法
本专利技术涉及一种面向超市货架图像的智能目标检测方法。
技术介绍
本专利技术的智能目标检测技术主要是应用在超市货架图像的目标检测,这类型图像中待检测目标通常是货架中的陈列的商品,它们排列整齐,摆放紧密,而且常常重叠在一起。当前,这样的图像检测一般是通过人眼识别,手动标注,如此存在大量重复劳动,工作量大,效率不高。近年来,基于深度学习的目标检测方法取得了很大的进展,但对于密集目标的检测,仍常常出现错误识别和标注位置不准确等问题,另外,该类方法所得到的目标位置矩形框常常重叠、重复,不利于统计货架商品信息。因此,在超市货架图像目标定位场合中,目前较少应用基于一般深度学习的目标检测方法。为解决上述问题,本专利技术在一般深度学习目标检测技术之上,通过加入混合高斯聚类方法,将多余的定位矩形删除,合并接近的矩形,能得到清晰、准确的目标定位矩形,大大提高了对货架上商品的检测准确率。
技术实现思路
本专利技术所解决问题在于提供一种智能目标检测方法,以解决上述技术中的缺点。一种面向超市货架图像的智能目标检测方法,包括以下步骤:本专利技术基于一般深度学习目标定位技术,通过集成混合高斯聚类方法,实现最后目标定位和识别,为详细介绍本
技术实现思路
,下面对一些概念进行阐述或定义:定义一:一般深度学习目标定位技术;用于一般目的的目标检测深度神经网络技术,常见的包括:Faster-RCNN,Yolo9000,RetinaNet【1】等深度学习目标检测技术。r>定义二:目标定位矩形BoundingBox(简称:BBox);目标在图像中的位置用矩形表示,该矩形以四元组(x,y,w,h)表示,x表示矩形中心的x坐标,y表示矩形中心的y坐标,w表示矩形的宽度,h表示矩形的高度。定义三:矩形重叠率(IoU,IntersectionoverUnion),其公式定义如下:其中,A、B表示两个矩形,以上公式表示两个矩形相交的面积除以两个矩形合并的面积。定义四:高斯重合度(OLR),它是定义两个高斯分布的重合度的指标,其公式如下:p(x)=α1·g1(x)+α2·g2(x)其中,p(x)是两个高斯分布g1(x)和g2(x)以权重α1和α2的线性组合而成的混合分布,p(x)有可能有1个顶点,也有可能有2个顶点,若为2个顶点时,在g1(x)和g2(x)中心之间存在一个鞍点,该点取值为p(Xsaddle),另外,p(x)的较低顶点的取值为p(Xlower_peak)。定义五:高斯核,指高斯混合模型中独立的高斯分布,每一个高斯分布为一个高斯核。一种面向超市货架图像的智能目标检测方法,包括以下步骤:步骤一:构造与训练目标检测神经网络,图1模块2指目标检测神经网络,可选用RetinaNet【1】神经网络模型,它的输入为图像(图1模块1)图1模块2的输出作为图1模块3的输入,图1模块3输出预测目标定位矩形(定义二),第i个目标的目标定位矩形是BBoxi,该模块可以用全连接网络实现;图1模块2的输出作为图1模块4的输入,图1模块4输出预测目标分类的置信度,第i个目标的分类置信度是ci,它可以用全连接网络实现;图1模块2的输出作为图1模块5的输入,图1模块5输出预测目标矩阵重叠率(定义四),第i个目标的矩阵重叠率是它可以有全连接网络实现,本专利技术的目标检测神经网络的损失函数为:上式右边表示目标分类判决损失函数和目标定位回归损失函数,与一般的深度学习目标检测神经网络的损失计算方法相同,上式右边最后一项表示矩形重合率的损失函数,其公式如下:其中,是图1模块5的输出,IoUi是第i个预测目标定位矩形BBoxi与真实目标矩形的矩形重叠率,其计算方法根据定义三计算出来。本专利技术的目标检测神经网络构造完成后,用一般常规的神经网络训练方法训练至收敛。步骤二:构造混合高斯分布,在图1模块6中完成,本专利技术将步骤一得到的目标定位矩形BBox(xi,yi,wi,hi)看作是二维高斯分布对应关系如下:由此,根据上述步骤一得到的N个目标定位矩形可得到N个正态分布,由此构成混合高斯分布模型为:步骤三:通过高斯重合度(上述定义四)指标进行高斯核的聚类操作,在图1模块6中完成,由上述步骤二得到的一系列高斯核αifi(x)构成聚类迭代运算的初始高斯核集合,计算任意两个高斯核的高斯重合度(OLR)(定义四),当两个高斯核的重合度小于一个阈值时,两者皆保留在高斯核集合中,反之,将这两个高斯核合并形成新高斯核,加入高斯核集合,同时从高斯核集合中消去已合并的两个高斯核,合并的公式如下:f(x)=α1N(μ1,∑1)+α2N(μ2,∑2)式中f(x)是由两个高斯核线性组合而成,g(x)是两个高斯核合并之后形成的新高斯核,上述高斯核的均值和方差之间有如下关系:迭代过程一直持续到不再产生新高斯核,也不再减少旧高斯核,迭代过程结束,获得最终聚类结果。步骤四:确定最终目标位置和类别,在图1模块8和模块9中完成,上述步骤三得到的聚类结果就是目标的最终预测位置,每个高斯分布的期望对应上述定义二目标定位矩形的中心点,而方差对应上述定义二目标定位矩形的长和宽的平方;目标的类型判断依据以下步骤获得:第一,上述步骤三使若干个初始高斯核对应一个聚类高斯核,构成关系映射j=π(i),j表示第j个结果聚类高斯核,i表示第i个初始高斯核,该函数表示为:j=π(i):{1,2,…,N}→{1,2,…,K},其中i∈{1,2,…,N},j∈{1,2,…,K}目标类别的判定就是以下公式的计算结果:j=π(i):{1,2,…,N}→{1,2,…,K),其中i∈{1,2,…,N},j∈{1,2,…,K}其中,表示聚类结果得到的第j个目标的BBox,bi表示与j对应的聚类初始的第i个BBox,ci表示聚类初始第i个BBox中对象的类置信度。完成四个以上步骤后,即完成了对图像中目标的定位与识别。有益效果:本专利技术提高了超市货架图像中密集对象的定位和分类能力,可显著减少目标定位矩形(BBox)的重叠率,提高对紧密对象边界的判定性能。附图说明:图1为本专利技术的系统结构图具体实施方式:为了使本专利技术的技术手段、创作特征、工作流程、使用方法达成目的功效,并易于明白了解,下面结合具体实例,进一步阐述本专利技术。定义一:一般深度学习目标定位技术;用于一般目的的目标检测深度神经网络技术,常见的包括:Faster-RCNN,Yolo9000,RetinaNet【1】等深度学习目标检测技术。定义二:目标定位矩形BoundingBox(简称:BBox);目标在图像中的位置用矩形表示,该矩形以四元组(x,y,w,h)表示,x表示矩形中心的x坐标,y表示矩形中心的y坐本文档来自技高网...

【技术保护点】
1.一种面向超市货架图像的智能目标检测方法,其特征在于,包括以下步骤:/n(1)构造与训练目标检测神经网络,图1模块1作为图1模块2的输入,图1模块2的输出作为图1模块3的输入,图1模块3输出是预测目标定位矩形,图1模块2的输出作为图1模块4的输入,图1模块4输出是预测目标分类的置信度,图1模块2的输出作为图1模块5的输入,图1模块5的输出是预测目标矩阵重叠率,网络训练采用的损失函数为:/n

【技术特征摘要】
1.一种面向超市货架图像的智能目标检测方法,其特征在于,包括以下步骤:
(1)构造与训练目标检测神经网络,图1模块1作为图1模块2的输入,图1模块2的输出作为图1模块3的输入,图1模块3输出是预测目标定位矩形,图1模块2的输出作为图1模块4的输入,图1模块4输出是预测目标分类的置信度,图1模块2的输出作为图1模块5的输入,图1模块5的输出是预测目标矩阵重叠率,网络训练采用的损失函数为:



上式右边前两项,分别表示目标分类判决损失函数和目标定位回归损失函数,直接采用一般目标检测神经网络的计算方法,上式右边最后一项表示矩形重合率损失函数,其公式如下:



本发明的目标检测神经网络构造完成后,以一般常规的神经网络训练方法训练至收敛;
(2)构造混合高斯分布,本发明将上述步骤(1)得到的目标定位矩形映射为二维高斯分布,对应关系如下:






所构成混合高斯分布模型为:









(3)通过高斯重合度指标进行高斯核的聚类,由上述步骤(2...

【专利技术属性】
技术研发人员:邓毅华李少辉
申请(专利权)人:邓毅华李少辉
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1