The invention provides a deep learning image target mapping and positioning method based on weak supervised information. The method includes: using image data with class label to train two deep convolution neural network frameworks separately, obtaining classification model M1 and classification model M2, and acquiring global parameter-learning pool layer parameters; using new classification model M2 to extract features from test images, obtaining feature maps, and passing through them according to feature maps. Feature category mapping and threshold method are used to obtain the initial positioning frame; selective search method is used to extract candidate regions from test images, and classification model M1 is used to filter out the set of candidate frames; non-maximum suppression processing is applied to the initial positioning frame and candidate box to obtain the final target positioning frame of test images. By introducing a global parametric learning pooling layer, the method can learn better feature expression about target category j, and effectively obtain the location information of the target object in the image by using selective feature category mapping.
【技术实现步骤摘要】
基于弱监督信息的深度学习图像目标映射及定位方法
本专利技术涉及图像处理
,尤其涉及一种基于弱监督信息的深度学习图像目标映射及定位方法。
技术介绍
随着以深度卷积神经网络为代表的深度学习技术的发展,图像分类和图像目标识别领域取得了巨大的突破性进展,并且引发了很多影响力极大的学术研究和相关的产业应用。在2015年的全球大规模视觉识别竞赛(ILSVRC)中,微软亚洲研究院提出的深度残差模型以3.57%的识别错误率获得冠军,并且首次超过人类的识别准确率。2014年提出的区域卷积神经网络(RCNN),首次将深度卷积网络用于图像目标检测任务,性能较传统基于手工特征的图像目标检测方法提升明显。在此之后,各种基于卷积神经网络的目标检测方法,例如快速区域卷积神经网络、更快的区域卷积神经网络等等方法,使得通用目标检测的性能不断提升。但上述方法都依赖于大量的完备位置标注的标签信息来训练卷积网络和区域回归模型,即在训练过程中不仅在给定目标的类别信息,还需要额外提供目标在图像中的位置信息,这也就要求研究者在训练深度网络前,需要对数据进行位置信息的标注。在实际应用场景中,对于大量的图片 ...
【技术保护点】
1.一种基于弱监督信息的深度学习图像目标映射及定位方法,其特征在于,包括如下步骤:S1,使用人工标注带有类别标签的图像数据训练深度卷积神经网络框架,得到分类模型M1;S2,在所述深度神经网络框架中删去卷积层后所有的全连接层,并加入一个全局带参可学习池化层和最后的分类全连接层,得到新的深度卷积神经网络框架;S3,使用人工标注带有类别信息标签的图像数据训练所述新的深度卷积神经网络框架,得到新的分类模型M2,并获取全局带参可学习池化层参数;S4,对于新输入的测试图像,使用所述新的分类模型M2进行特征提取,得到最后一个卷积层后的特征图,对所述特征图与全局带参可学习池化层参数进行内积 ...
【技术特征摘要】
1.一种基于弱监督信息的深度学习图像目标映射及定位方法,其特征在于,包括如下步骤:S1,使用人工标注带有类别标签的图像数据训练深度卷积神经网络框架,得到分类模型M1;S2,在所述深度神经网络框架中删去卷积层后所有的全连接层,并加入一个全局带参可学习池化层和最后的分类全连接层,得到新的深度卷积神经网络框架;S3,使用人工标注带有类别信息标签的图像数据训练所述新的深度卷积神经网络框架,得到新的分类模型M2,并获取全局带参可学习池化层参数;S4,对于新输入的测试图像,使用所述新的分类模型M2进行特征提取,得到最后一个卷积层后的特征图,对所述特征图与全局带参可学习池化层参数进行内积后求和、非线性函数激活和列向量相乘后求和操作,得到最终的特征映射图,根据所述最终的特征映射图通过阈值法得到初步定位框;S5,对于所述新输入的测试图像,使用选择性搜索方法进行候选区域提取,再使用所述分类模型M1筛选出类别属于目标物体的置信度大于75%的候选框集合;S6,对所述初步定位框和所述候选框进行非极大值抑制处理,得到所述测试图像最终的目标定位框。2.根据权利要求1所述方法,其特征在于:所述的S1中的使用人工标注带有类别标签的图像数据训练深度卷积神经网络框架,得到分类模型,包括:设计深度卷积神经网络框架F1,其中F1由卷积层、池化层和全连接层组成,在最后一个卷积层Convlast和网络尾部的分类全连接层之间由连续的全连接层组成,使用高斯参数对深度卷积神经网络框架F1中所有层的参数进行初始化设置;使用人工标注好类别标签的图像数据作为训练样本(xn,yn),其中n为训练样本数目,使用训练样本(xn,yn)训练所述深度神经网络框架F1得到分类模型,使用随机梯度下降法对分类模型进行优化,得到收敛后的分类模型M1。3.根据权利要求1所述的方法,其特征在于,所述的S2中的在所述深度神经网络框架中删去卷积层后所有的全连接层,并加入一个全局带参可学习池化层和最后的分类全连接层,得到新的深度卷积神经网络框架;包括:在深度卷积网络框架F1中,删除框架中最后一个卷积层Convlast后的全连接层,重新设计最后的分类全连接层FCcls,维度为m×c,其中c为类别数,获取深度卷积网络框架F1中Convlast层后得到的卷积特征图F的尺寸w×w和数目m,随机生成m个相同大小为w×w的矩阵K,构成新的全局带参可学习池化层Pl,在Convlast和FCcls填入新生成的由m个w×w大小的矩阵组成的全局带参可...
【专利技术属性】
技术研发人员:田永鸿,李宗贤,史业民,曾炜,王耀威,
申请(专利权)人:北京大学,
类型:发明
国别省市:北京,11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。