目标检测模型、训练方法及系统、目标检测方法及系统技术方案

技术编号:37301082 阅读:17 留言:0更新日期:2023-04-21 22:46
本发明专利技术公开了目标检测模型、训练方法及系统、目标检测方法及系统,包括:获取已知场景A的已标注目标信息的数据集DA;获取新场景B的未标注目标信息的数据集DB;基于场景B的背景图和已知的目标图片生成标注有目标信息的数据集DC;获取DA的样本X

【技术实现步骤摘要】
目标检测模型、训练方法及系统、目标检测方法及系统


[0001]本专利技术涉及机器学习
,特别涉及一种目标检测模型、训练方法及系统、目标检测方法及系统。

技术介绍

[0002]现有针对领域迁移的目标检测算法中,主要有基于特征对抗的算法、基于均值教师网络训练和基于对抗生成网络等方法。
[0003]特征对抗方法,主要通过学习不同领域的数据特征,通过反向梯度等方法优化特征,提取跨领域通用的特征,从而实现不同领域之间的迁移。
[0004]均值教师网络主要靠在源数据域的教师网络提供监督,新数据域的学生模型同时学习教师网络的输出和有标签数据。
[0005]对抗生成主要通过不同领域之间做数据生成,从而实现模型适应不同领域。
[0006]但是,在很多实际工业场景中,经常会遇到数据不足的问题。比如,我们有初始A工厂的大量标注数据,但是新工厂B还未生产,只有少量无标注数据。由于缺少数据,利用上述现有的三种方法训练目标检测模型和检测目标,目标检测效果都不理想。

技术实现思路

[0007]为解决现有技术中数据缺少的情况下训练获得的目标检测模型检测效果不好的不足,本专利技术提供了一种目标检测模型、训练方法及系统、目标检测方法及系统,能够在新场景样本数据缺少的情况下,提升领域迁移的效果,大大提升目标检测效果。
[0008]为解决上述技术问题,本专利技术所采用的技术方案是:
[0009]一种目标检测模型训练方法,其特点是包括以下步骤:
[0010]步骤1,获取已知场景A的已标注目标信息的图片数据集DA;
[0011]步骤2,获取新场景B的没有标注目标信息的图片数据集DB;
[0012]步骤3,基于场景B的背景图和已知的目标图片生成标注有目标信息的图片数据集DC;
[0013]步骤4,采样获取DA的样本X
a
及对应的带有目标信息的标签Y
a
,DB的样本X
b
,DC的样本X
c
及对应的带有目标信息的标签Y
c

[0014]步骤5,将X
a
、X
b
、X
c
输入特征提取网络C
f
提取得到对应的特征f
a
、f
b
、f
c

[0015]步骤6,基于f
a
、f
c
、位置预测网络C
loc
、类别预测网络C
cls
、Y
a
和Y
c
,获取目标检测损失L
det

[0016]步骤7,基于f
a
、f
b
和分类网络C
adv
,获取分类损失L
adv

[0017]步骤8,融合L
det
和L
adv
,获取总损失L
total

[0018]步骤9,优化所述特征提取网络C
f
、位置预测网络C
loc
和类别预测网络C
cls
,直至总损失L
total
收敛。
[0019]作为一种优选方式,所述步骤3中,基于类比生成算法,利用场景B的背景图和已知
的目标图片生成标注有目标信息的图片数据集DC。
[0020]作为一种优选方式,所述步骤3中,图片数据集DC中的数据获取过程包括:
[0021]步骤301,将已知的目标图片转换为二值图;
[0022]步骤302,获取已知场景A的原图,目标与背景分割结果图;
[0023]步骤303,获取新场景B的背景图;
[0024]步骤304,基于场景B的背景图和随机抽取的二值图做掩模处理,得到包括背景和对应的待填充掩模区域的图;
[0025]步骤305,基于步骤302的获取信息,根据类比生成算法,填充步骤304输出图中待填充掩模区域;
[0026]步骤306,对每个待填充掩模区域,取最大外接矩形作为目标检测的标注物体框,并用生成的图作为数据集DC中的数据。
[0027]作为一种优选方式,所述步骤6包括:
[0028]步骤601,将f
a
、f
c
输入位置预测网络C
loc
和类别预测网络C
cls
,得到对应的目标位置信息r
loc
和目标类别信息r
cls

[0029]步骤602,基于r
loc
、r
cls
、Y
a
和Y
c
,计算目标检测位置信息损失和目标检测类型信息损失;
[0030]步骤603,计算目标检测位置信息损失和目标检测类型信息损失之和,并将该和作为目标检测损失L
det

[0031]作为一种优选方式,所述步骤7包括:
[0032]步骤701,将f
a
、f
b
输入分类网络C
adv
,得到对应的目标预测类别r
a
、r
b

[0033]步骤702,计算目标分类损失L
adv
,其中,L
adv


log(r
a
)

log(1

r
b
)。
[0034]作为一种优选方式,所述步骤8中,L
total
=αL
det
+βL
adv
,其中,α、β为预设的权值。
[0035]基于同一个专利技术构思,本专利技术还提供了一种目标检测模型训练系统,其特点是包括:
[0036]第一获取模块:用于获取已知场景A的已标注目标信息的图片数据集DA;
[0037]第二获取模块:用于获取新场景B的没有标注目标信息的图片数据集DB;
[0038]第三获取模块:用于基于场景B的背景图和已知的目标图片生成标注有目标信息的图片数据集DC;
[0039]采样模块:用于采样获取DA的样本X
a
及对应的带有目标信息的标签Y
a
,DB的样本X
b
,DC的样本X
c
及对应的带有目标信息的标签Y
c

[0040]特征提取模块:用于将X
a
、X
b
、X
c
输入特征提取网络C
f
提取得到对应的特征f
a
、f
b
、f
c

[0041]目标检测损失获取模块:用于基于f
a
、f
c
、本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种目标检测模型训练方法,其特征在于,包括以下步骤:步骤1,获取已知场景A的已标注目标信息的图片数据集DA;步骤2,获取新场景B的没有标注目标信息的图片数据集DB;步骤3,基于场景B的背景图和已知的目标图片生成标注有目标信息的图片数据集DC;步骤4,采样获取DA的样本X
a
及对应的带有目标信息的标签Y
a
,DB的样本X
b
,DC的样本X
c
及对应的带有目标信息的标签Y
c
;步骤5,将X
a
、X
b
、X
c
输入特征提取网络C
f
提取得到对应的特征f
a
、f
b
、f
c
;步骤6,基于f
a
、f
c
、位置预测网络C
loc
、类别预测网络C
cls
、Y
a
和Y
c
,获取目标检测损失L
det
;步骤7,基于f
a
、f
b
和分类网络C
adv
,获取分类损失L
adv
;步骤8,融合L
det
和L
adv
,获取总损失L
total
;步骤9,优化所述特征提取网络C
f
、位置预测网络C
loc
和类别预测网络C
cls
,直至总损失L
total
收敛。2.根据权利要求1所述的目标检测模型训练方法,其特征在于,所述步骤3中,基于类比生成算法,利用场景B的背景图和已知的目标图片生成标注有目标信息的图片数据集DC。3.根据权利要求2所述的目标检测模型训练方法,其特征在于,所述步骤3中,图片数据集DC中的数据获取过程包括:步骤301,将已知的目标图片转换为二值图;步骤302,获取已知场景A的原图,目标与背景分割结果图;步骤303,获取新场景B的背景图;步骤304,基于场景B的背景图和随机抽取的二值图做掩模处理,得到包括背景和对应的待填充掩模区域的图;步骤305,基于步骤302的获取信息,根据类比生成算法,填充步骤304输出图中待填充掩模区域;步骤306,对每个待填充掩模区域,取最大外接矩形作为目标检测的标注物体框,并用生成的图作为数据集DC中的数据。4.根据权利要求1至3任一项所述的目标检测模型训练方法,其特征在于,所述步骤6包括:步骤601,将f
a
、f
c
输入位置预测网络C
loc
和类别预测网络C
cls
,得到对应的目标位置信息r
loc
和目标类别信息r
cls
;步骤602,基于r
loc
、r
cls
、Y
a
和Y
c
,计算目标检测位置信息损失和目标检测类型信息损失;步骤603,计算目标检测位置信息损失和目标检测类型信息损失之和,并将该和作为目标检测损失L
det
。5.根据权利要求1至3任一项所述的目标检测模型训练方法,其特征在于,所述步骤7包括:步骤701,将f...

【专利技术属性】
技术研发人员:请求不公布姓名梁鸿项载尉周颖超
申请(专利权)人:湖南视比特机器人有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1