本发明专利技术揭示了一种语义分割模型训练方法、语义分割方法及电子设备,涉及语义分割领域。该方法包括:获取图像训练集中各个训练图像对应的边缘图像以及目标分割结果;根据边缘图像中各个像素的像素值,生成边缘图像对应的像素权重矩阵;将各个训练图像输入至初始语义分割模型中得到预测分割结果;基于像素权重矩阵计算预测分割结果与目标分割结果之间的损失值;基于损失值对初始语义分割模型的参数进行调整,以确定目标语义分割模型。上述方法保证了计算得到的预测分割结果与目标分割结果之间的损失值的准确性,从而可以更加准确确定分割边界的像素,实现了边界优化。从而保证了确定的目标语义分割模型的准确性,进而保证了语义分割结果的准确性。分割结果的准确性。分割结果的准确性。
Semantic segmentation model training method, semantic segmentation method and electronic equipment
【技术实现步骤摘要】
语义分割模型训练方法、语义分割方法及电子设备
[0001]本专利技术涉及语义分割领域,具体涉及一种语义分割模型训练方法、语义分割方法及电子设备。
技术介绍
[0002]随着计算机视觉的不断发展,语义分割技术也越来越成熟。最近的语义分割架构一般都用卷积神经网络(CNN)为每个像素分配一个初始类别标签。卷积层可以有效地捕捉图像中的局部特征,并以层级的方式将许多这样的模块嵌套在一起,这样CNN就可以试着提取更大的结构了。通过一系列卷积捕捉图像的复杂特征,CNN可以将一张图的内容编码为紧凑表征。
[0003]然而,现有技术中,由于相邻的像素对应感受野内的图像信息太过相似了,如果临近的像素都属于所需分割区域的内部,那么这种“相似”是有利的,但是如果相邻像素刚好处在所需分割区域的边界上,那么这种相似就会导致语义分割结果不准确。
技术实现思路
[0004]有鉴于此,本专利技术实施例提供了一种语义分割模型训练方法、语义分割方法及电子设备,旨在解决现有语义分割方法,边界分割不准确的问题。
[0005]根据第一方面,本专利技术实施例提供了一种语义分割模型训练方法,包括:
[0006]获取图像训练集中各个训练图像对应的边缘图像以及目标分割结果;
[0007]根据边缘图像中各个像素的像素值,生成边缘图像对应的像素权重矩阵;
[0008]将各个训练图像输入至初始语义分割模型中得到预测分割结果;
[0009]基于像素权重矩阵计算预测分割结果与目标分割结果之间的损失值;
[0010]基于损失值对初始语义分割模型的参数进行调整,以确定目标语义分割模型。
[0011]本专利技术实施例提供的语义分割模型训练方法,获取图像训练集中各个训练图像对应的边缘图像以及目标分割结果,根据边缘图像中各个像素的像素值,生成边缘图像对应的像素权重矩阵,从而保证了生成的边缘图像对应的像素权重矩阵的准确性。然后,将各个训练图像输入至初始语义分割模型中得到预测分割结果,基于像素权重矩阵计算预测分割结果与目标分割结果之间的损失值。保证了计算得到的预测分割结果与目标分割结果之间的损失值的准确性,从而可以更加准确确定分割边界的像素,实现了边界优化。然后,基于损失值对初始语义分割模型的参数进行调整,以确定目标语义分割模型,保证了确定的目标语义分割模型的准确性,进而保证了利用目标语义分割模型进行语义分割,得到的分割结果的准确性。
[0012]结合第一方面,在第一方面第一实施方式中,基于像素权重矩阵计算预测分割结果与目标分割结果之间的损失值,包括:
[0013]基于像素权重矩阵中的各元素的值,生成样本权重总和;
[0014]基于像素权重矩阵以及样本权重总和,计算预测分割结果与目标分割结果之间的
交叉熵损失值。
[0015]本专利技术实施例提供的语义分割模型训练方法,基于像素权重矩阵中的各元素的值,生成样本权重总和,保证了生成的样本权重总和的准确性。然后,基于像素权重矩阵以及样本权重总和,计算预测分割结果与目标分割结果之间的交叉熵损失值。保证了计算得到的交叉熵损失值的准确性。
[0016]结合第一方面第一实施方式,在第一方面第二实施方式中,基于像素权重矩阵中的各元素的值,生成样本权重总和,包括:
[0017]将像素权重矩阵中的各元素的值均加上目标参数,得到目标像素权重矩阵;
[0018]将目标像素权重矩阵中的各目标元素的值进行相加,生成样本权重总和。
[0019]本专利技术实施例提供的语义分割模型训练方法,将像素权重矩阵中的各元素的值均加上目标参数,得到目标像素权重矩阵,考虑了全局损失对预测分割结果的影响,而不仅仅是考虑分割边界损失对预测分割结果的影响。然后,将目标像素权重矩阵中的各目标元素的值进行相加,生成样本权重总和,保证了生成的样本权重总和的准确性。
[0020]结合第一方面第二实施方式,在第一方面第三实施方式中,基于像素权重矩阵以及样本权重总和,计算预测分割结果与目标分割结果之间的交叉熵损失值,包括:
[0021]计算训练图像中各个像素的预测结果与真实结果之间初始损失值;
[0022]将各初始损失值乘以目标像素权重矩阵中对应的目标元素,得到各个像素对应的目标损失值;
[0023]将各个像素对应的目标损失值进行相加之后,除以样本权重总和,得到预测分割结果与目标分割结果之间的交叉熵损失值。
[0024]本专利技术实施例提供的语义分割模型训练方法,计算训练图像中各个像素的预测结果与真实结果之间初始损失值,保证了计算得到的各个像素对应的初始损失值的准确性。然后,将各初始损失值乘以目标像素权重矩阵中对应的目标元素,得到各个像素对应的目标损失值。从而使得计算得到的目标损失值既考虑了全局损失对预测分割结果的影响,又考虑分割边界损失对预测分割结果的影响,从而保证了目标损失值的准确性,使得根据目标损失值可以更好地确定分割边缘的像素。然后,将各个像素对应的目标损失值进行相加之后,除以样本权重总和,得到预测分割结果与目标分割结果之间的交叉熵损失值。保证了计算得到的交叉熵损失值的准确性,使得根据交叉熵损失值可以确定训练图像的训练结果,进而保证了根据交叉熵损失值训练得到的目标语义分割模型的准确性。
[0025]结合第一方面,在第一方面第四实施方式中,根据边缘图像中各个像素的像素值,生成边缘图像对应的像素权重矩阵,包括:
[0026]对边缘图像进行滤波处理,生成目标边缘图像;
[0027]对目标边缘图像中各像素的像素值进行归一化处理,生成像素权重矩阵。
[0028]本专利技术实施例提供的语义分割模型训练方法,对边缘图像进行滤波处理,从而抑制了服从正态分布的噪声,使得生成目标边缘图像噪声更小,更加准确且平滑。然后,对目标边缘图像中各像素的像素值进行归一化处理,生成像素权重矩阵,保证了生成的像素权重矩阵的准确性,且使得生成的像素权重矩阵与边缘图像中各像素值相关,进而使得根据像素权重矩阵可以更好的确定训练图像中的分割边界,从而加大分割边界与分割区域内部的区别,保证基于像素权重矩阵计算得到的损失值的准确性。
[0029]结合第一方面,在第一方面第五实施方式中,获取图像训练集中各个训练图像对应的边缘图像,包括:
[0030]获取图像训练集;图像训练集中的各个训练图像带有标签;
[0031]根据各个训练图像的标签,将训练图像转化为灰度图像;
[0032]对灰度图像的边缘进行定位,得到各个训练图像对应的边缘图像。
[0033]本专利技术实施例提供的语义分割模型训练方法,获取图像训练集,根据各个训练图像的标签,将训练图像转化为灰度图像,保证了得到的灰度图像的准确性。然后,对灰度图像的边缘进行定位,得到各个训练图像对应的边缘图像,保证了得到的边缘图像的准确性。
[0034]根据第二方面,本专利技术实施例还提供了一种语义分割方法,该方法包括:
[0035]获取待分割图像;
[0036]将待分割图像输入至目标语义分割模本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种语义分割模型训练方法,其特征在于,包括:获取图像训练集中各个训练图像对应的边缘图像以及目标分割结果;根据所述边缘图像中各个像素的像素值,生成所述边缘图像对应的像素权重矩阵;将各个所述训练图像输入至初始语义分割模型中得到预测分割结果;基于所述像素权重矩阵计算所述预测分割结果与所述目标分割结果之间的损失值;基于所述损失值对所述初始语义分割模型的参数进行调整,以确定目标语义分割模型。2.根据权利要求1所述的方法,其特征在于,所述基于所述像素权重矩阵计算所述预测分割结果与所述目标分割结果之间的损失值,包括:基于所述像素权重矩阵中的各元素的值,生成样本权重总和;基于所述像素权重矩阵以及所述样本权重总和,计算所述预测分割结果与所述目标分割结果之间的交叉熵损失值。3.根据权利要求2所述的方法,其特征在于,所述基于所述像素权重矩阵中的各元素的值,生成样本权重总和,包括:将所述像素权重矩阵中的各元素的值均加上目标参数,得到目标像素权重矩阵;将所述目标像素权重矩阵中的各目标元素的值进行相加,生成所述样本权重总和。4.根据权利要求3所述的方法,其特征在于,所述基于所述像素权重矩阵以及所述样本权重总和,计算所述预测分割结果与所述目标分割结果之间的交叉熵损失值,包括:计算所述训练图像中各个像素的预测结果与真实结果之间初始损失值;将各所述初始损失值乘以所述目标像素权重矩阵中对应的所述目标元素,得到各个像素对应的目标损失值;将各个像素对应的所述目标损失值进行相加之后,除以所述样本权重总和,得到所述预测分割结果与所述目标分割结果之间的交叉熵损失值。5.根据权利要求1所述的方法,其特征在于,所述根据所述边缘...
【专利技术属性】
技术研发人员:李世行,
申请(专利权)人:深圳海星智驾科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。