一种基于框标注的弱监督图像分割方法技术

技术编号:32032046 阅读:30 留言:0更新日期:2022-01-27 13:08
本发明专利技术提出一种基于框标注的弱监督图像分割方法,所述图像分割方法可分为三个步骤:步骤1、初始化输入;步骤2、深度学习模型;步骤3、规范化输出。所述步骤1中的初始化输入是完成图像转换为深度学习数据;所述步骤2中的深度学习模型是依据深度学习原理,具体为通过堆叠卷积计算,池化计算以及各类激活函数实现一个复杂的深度学习模型结构,最终搭建一个端到端的图像分割模型;所述步骤3中的规范化输出分为两阶段:训练阶段和应用阶段,训练阶段和应用阶段不同点在于在规范化输出中对深度学习模型的计算结果进行不同处理方式,以达到训练模型的效果和现实应用的功能。练模型的效果和现实应用的功能。练模型的效果和现实应用的功能。

【技术实现步骤摘要】
一种基于框标注的弱监督图像分割方法


[0001]本专利技术涉及一种基于框标注的弱监督图像分割方法,属于计算机视觉领域。

技术介绍

[0002]图像分割是图像理解的关键组成部分,促进了计算机视觉领域的深层次应用,比如自动驾驶、姿态估计、图像合成等。在这些实际应用中,图像分割的功能往往是优于目标检测的,因为一个目标掩码将比一个目标框更加准确。即使某些实际应用需要目标框,我们也能对目标掩码取外接矩形框得到目标框,而对于整个模型而言,格外的计算成本几乎可以忽略不计。但在诸多现实情况中,图像分割并没有得到像目标检测一样广泛应用。在实际使用中我们发现阻碍图像分割的主要障碍不是实时处理的速度和精度,而是较为严格的像素级标注。像素级标注是对图像中每个像素都标注一个确定的类别,因此这种标注方式需要大量的人力、时间和资金支持。为了减轻高昂的标注成本给图像分割的实用性带来的限制,我们使用一种低质量标注——目标框标注,实现弱监督训练图像分割模型并达到实用性的性能要求。

技术实现思路

[0003]专利技术目的:提出一种基于框标注的弱监督图像分割方法,实现弱监督训练图像分割模型并达到实用性的性能要求。
[0004]技术方案:一种基于框标注的弱监督图像分割方法,包括如下步骤:
[0005]步骤1、初始化输入:完成图像转换为深度学习数据;
[0006]步骤2、建立深度学习模型:搭建一个端到端的图像分割模型;
[0007]步骤3、规范化输出:输出对深度学习模型的计算结果。
[0008]根据本专利技术的一个方面,所述步骤1中的初始化输入具体为:
[0009]步骤11、数据输入:首先将图像转存入计算机中;
[0010]步骤12、数据增强:将图像做一些格外的处理,包含图像大小的随机改变、图像的随机翻转、图像色彩的随便变换、图像随机裁剪,通过使用这些数据增强,在原有图像的基础上尽可能地丰富图像样式,以拟合在现实场景中各种实际变化;
[0011]步骤13、数据转换:使用图像读取代码实现图像数据转换到深度学习数据。
[0012]根据本专利技术的一个方面,所述步骤2中的建立深度学习模型具体步骤如下:
[0013]步骤21、定义模型结构:定义模型中各模块的结构和次序关系;
[0014]步骤22、实现模型结构:基于Pytorch代码库,根据定义按次序依次实现相应的模型结构;
[0015]步骤23、编译模型:代码编译过程,判断当前实现过程中是否存在问题;
[0016]步骤24、配置模型:设置模型参数和超参数。
[0017]根据本专利技术的一个方面,所述深度学习模型结构包含如下三层:
[0018]卷积层:对多通道输入进行多个卷积操作,每个卷积产生一个通道的输出,因此可
以得到多个通道的输出,卷积定义为:
[0019][0020]其中z[x,y]是计算结果,g[x,y]是输入数据,f[x,y]是卷积核,*表示卷积操作;
[0021]激活层:对输入的每个数值通过激活函数进行修改,得到相同大小的输出,该函数使用Relu函数:
[0022]f(x)=max(0,x);
[0023]池化层:对输入数据按比例进行采样,其采样方法表示为:
[0024]f(X)=max([X])。
[0025]根据本专利技术的一个方面,所述步骤3中的规范化输出包括2个阶段,训练阶段和应用阶段。
[0026]根据本专利技术的一个方面,所述训练阶段的图像分割处理方具体步骤为:
[0027]步骤31、将目标框的标注转换为图像表示,其中目标框内的区域设置为1,框外区域设置为0;
[0028]步骤32、采用三种方法来指导模型学习目标框提供的目标信息,三种指导方法分别是向量指导、点指导和平面指导;
[0029]步骤33、统合三个指导方法带来的误差和损失,根据梯度反向传播原理,将误差和损失层层传递到各个深度学习的基础计算操作中,再经过梯度下降法,使各基础计算操作的参数向更优的方向收敛,逐渐减小误差和损失,使模型达到最优的性能和最好的结果。
[0030]根据本专利技术的一个方面,所述向量指导方法指导模型学习目标框提供的目标信息具体实现为:
[0031]步骤41、将目标框在原图像上进行向量投影,分别做横向和纵向的投影,投影的方法是取各方向上的最大值,具体计算方法如下:
[0032]l
x
=Vect
x
(l)=max
x
(l),
[0033]l
y
=Vect
y
(l)=max
y
(l);
[0034]步骤42、通过这种投影方式,将二维的目标标注映射到一维的目标指导信息;
[0035]步骤43、然后本文采用同样的方法,将之前的深度学习模型的计算结果映射相应的横向和纵向的预测向量;
[0036]步骤44、之后本文将横向和纵向的目标指导信息与其相应的预测向量来计算各自的误差,损失函数采用二元交叉熵或者Dice损失:
[0037][0038]根据本专利技术的一个方面,所述点指导方法是对某个或多个点提供明确的指导信息,使模型在这些点的指导信息中学习具体的目标特征,在训练中加强模型对这些点的重视程度,即分别对框内和框外的预测图取最小值和最大值,并使它们两个值趋于背景类0值,其损失计算公式如下:
[0039][0040]根据本专利技术的一个方面,所述平面指导方法具体为:
[0041]步骤51、首先在原图像上计算每个像素对的颜色相似度,将颜色相似的像素对当作正样本,颜色相似度计算如下:
[0042][0043]步骤52、然后对预测掩码使用相同的方法计算概率相似度,概率相似度计算如下:
[0044][0045]步骤53、最后使正样本的概率相似度趋于一致,平面指导的损失计算如下:
[0046][0047]根据本专利技术的一个方面,所述应用阶段直接使用本文训练的模型进行推理,然后对于推理的结果进行色彩填充,色彩填充的方法:将推理得到的预测概率分布到[0,255],以符合图像像素的显示要求。
[0048]有益效果:该方法证明了方框标注在显著性检测任务中的可行性;该方法通过向量指导、点指导和平面指导得到了优异的结果;如图3和图4所示,在定量和定性分析下,我们的方法优于其他弱监督的显著性模型,并且接近于完全监督的方法;该方法可以快速地应用于其他完全监督的显著性模型。
附图说明
[0049]图1是基于框标注的弱监督图像分割方法流程图。
[0050]图2是深度学习的模型结构图。
[0051]图3是基于框标注的弱监督图像分割方法评估结果对比图。
[0052]图4是实验结果比较图。
具体实施方式
[0053]如图1所示,在该实施例中,一种基于框标注的弱监督图像分割方法,包括如下步骤:
[0054]步骤1、初始化输入:完成图像转换为深度本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于框标注的弱监督图像分割方法,其特征在于,包括如下步骤:步骤1、初始化输入:完成图像转换为深度学习数据;步骤2、建立深度学习模型:搭建一个端到端的图像分割模型;步骤3、规范化输出:输出对深度学习模型的计算结果。2.根据权利要求1所述的一种基于框标注的弱监督图像分割方法,其特征在于,所述步骤1中的初始化输入具体为:步骤11、数据输入:首先将图像转存入计算机中;步骤12、数据增强:将图像做一些格外的处理,包含图像大小的随机改变、图像的随机翻转、图像色彩的随便变换、图像随机裁剪,通过使用这些数据增强,在原有图像的基础上尽可能地丰富图像样式,以拟合在现实场景中各种实际变化;步骤13、数据转换:使用图像读取代码实现图像数据转换到深度学习数据。3.根据权利要求1所述的一种基于框标注的弱监督图像分割方法,其特征在于,所述步骤2中的建立深度学习模型具体步骤如下:步骤21、定义模型结构:定义模型中各模块的结构和次序关系;步骤22、实现模型结构:基于Pytorch代码库,根据定义按次序依次实现相应的模型结构;步骤23、编译模型:代码编译过程,判断当前实现过程中是否存在问题;步骤24、配置模型:设置模型参数和超参数。4.根据权利要求3所述的一种基于框标注的弱监督图像分割方法,其特征在于,所述深度学习模型结构包含如下三层:卷积层:对多通道输入进行多个卷积操作,每个卷积产生一个通道的输出,因此可以得到多个通道的输出,卷积定义为:其中z[x,y]是计算结果,g[x,y]是输入数据,f[x,y]是卷积核,*表示卷积操作;激活层:对输入的每个数值通过激活函数进行修改,得到相同大小的输出,该函数使用Relu函数:f(x)=max(0,x);池化层:对输入数据按比例进行采样,其采样方法表示为:f(X)=max([X])。5.根据权利要求1所述的一种基于框标注的弱监督图像分割方法,其特征在于,所述步骤3中的规范化输出包括2个阶段,训练阶段和应用阶段。6.根据权利要求5所述的一种基于框标注的弱监督图像分割方法,其特征在于,所述训练阶段的图像分割处理方具体步骤为:步骤31、将目标框的标注转换为图像表示,其中目标框内的区域设置为1,框外区域设置为0;步骤32、采用三种方法来指导模型学习目标框提供的目标信息,三种指导方法分别是向量指导、点指...

【专利技术属性】
技术研发人员:姜振涛程健
申请(专利权)人:中科南京人工智能创新研究院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1