一种电力场景通用物品的目标检测方法、装置及存储介质制造方法及图纸

技术编号:29926368 阅读:32 留言:0更新日期:2021-09-04 18:47
本发明专利技术涉及一种电力场景通用物品的目标检测方法、装置及存储介质,该方法包括:获取电力场景下的多幅样本图像,并对多幅样本图像进行数据增强,建立扩充数据集;根据带有标注信息的扩充数据集,确定训练样本集;将训练样本集输入至深度卷积神经网络模型,确定预测类别和预测目标框;根据实际类别、实际目标框、预测类别和预测目标框,确定损失函数,根据损失函数的值调整深度卷积神经网络模型的参数直至满足收敛条件,并将训练完备的深度卷积神经网络模型进行存储;将待测图像输入至训练完备的深度卷积神经网络模型中,识别预测通用物品。本发明专利技术基于小样本学习进行目标检测,可有效提高速度和精度。高速度和精度。高速度和精度。

【技术实现步骤摘要】
一种电力场景通用物品的目标检测方法、装置及存储介质


[0001]本专利技术涉及目标检测
,尤其涉及一种电力场景通用物品的目标检测方法、装置及存储介质。

技术介绍

[0002]传统目标检测采用人工特征提取的方式,当背景环境和目标形态发生变化时,人工特征提取的方式鲁棒性较差,目标监测方法的精确度会降低。基于卷积神经网络的目标检测方法是将深度学习技术与计算机视觉技术相结合,具有局部感受野(视觉感受区域的大小)、结构层次、特征抽取与分类结合的全局训练特征。然而,现阶段视觉目标检测的研究方法和技术手段需要大量训练数据及复杂模型,存在数据标注成本太高、实时处理能力不强等问题。综上,如何提供实时性强、训练成本低的电力场景通用物品检测方法是亟待解决的问题。

技术实现思路

[0003]有鉴于此,有必要提供一种电力场景通用物品的目标检测方法、装置及存储介质,用以解决现有技术中电力场景目标检测实时性不高的问题。
[0004]本专利技术提供一种电力场景通用物品的目标检测方法,包括:
[0005]获取电力场景下的多幅样本图像,并对所述多幅样本图像进行数据增强,建立扩充数据集;
[0006]根据带有标注信息的所述扩充数据集,确定训练样本集,其中,标注信息经过数据增强后的多幅样本图像中存在的通用物品的实际类别和实际目标框;
[0007]将所述训练样本集输入至深度卷积神经网络模型,确定预测的通用物品的预测类别和预测目标框;
[0008]根据实际类别、实际目标框、预测类别和预测目标框,确定损失函数,根据所述损失函数的值调整所述深度卷积神经网络模型的参数直至满足收敛条件,完成对所述深度卷积神经网络模型的训练,并将通过使用基于数据增强的小样本学习方法训练完备的深度卷积神经网络模型进行存储;
[0009]将待测图像输入至训练完备的深度卷积神经网络模型中,识别预测通用物品,并输出对应的预测类别和预测目标框。
[0010]进一步地,所述获取多幅样本图像,并对所述多幅样本图像进行数据增强,建立扩充数据集包括:
[0011]获取所述多幅样本图像;
[0012]将所述多幅样本图像进行图像分块,确定对应的多张图像子块;
[0013]根据所述图像子块和对应的所述多张扩充子块,建立对每一张图像子块进行多种图像处理操作,得到对应的多张扩充子块;
[0014]所述多张扩充子块构成所述扩充数据集。
[0015]进一步地,所述多种图像处理操作包括调节图像亮度、调节图像色度、调节图像对比度、调节图像锐度以及人工加噪声中的至少一种。
[0016]进一步地,所述深度卷积神经网络模型的网络结构依次包括多个卷积层,每个卷积层具有对应的最大值池化层。
[0017]进一步地,所述根据实际类别、实际目标框、预测类别和预测目标框,确定损失函数包括:
[0018]根据所述预测目标框和所述实际目标框的重叠度,确定第一置信度损失;
[0019]根据所述预测目标框和所述实际目标框的误差,确定预测框误差损失;
[0020]计算将所述预测目标框和所述实际目标框的中心置于同一位置的重叠度,确定第二置信度损失;
[0021]根据所述预测目标框和所述实际目标框的坐标误差,确定坐标损失;
[0022]根据所述实际类别和所述预测类别,确定分类损失;
[0023]将所述第一置信度损失、所述预测框误差损失、所述第二置信度损失、所述坐标损失和所述分类损失和对应的权重相乘,确定所述损失函数。
[0024]进一步地,所述将待测图像输入至所述训练完备的深度卷积神经网络模型中,识别预测通用物品,并输出对应的预测类别和预测目标框包括:
[0025]采用特征工程,确定所述待测图像的目标候选区域;
[0026]将所述目标候选区域进行图像分块,确定对应的多张图像子块;
[0027]将所述多张图像子块输入至所述训练完备的深度卷积神经网络模型,识别预测通用物品,并采用非极大值抑制进行处理,输出对应的预测类别和预测目标框。
[0028]进一步地,所述待测图像通过电力作业机器人在电力场景下进行采集。
[0029]本专利技术还提供了一种电力场景通用物品的目标检测装置,包括:
[0030]获取单元,用于获取多幅样本图像,并对所述多幅样本图像进行数据增强,建立扩充数据集;
[0031]训练单元,用于根据带有标注信息的所述扩充数据集,确定训练样本集,其中,标注信息经过数据增强后的多幅样本图像中存在的通用物品的实际类别和实际目标框;还用于将所述训练样本集输入至深度卷积神经网络模型,确定预测的通用物品的预测类别和预测目标框;还用于根据实际类别、实际目标框、预测类别和预测目标框,确定损失函数,根据所述损失函数的值调整所述深度卷积神经网络模型的参数直至满足收敛条件,完成对所述深度卷积神经网络模型的训练,并将通过使用基于数据增强的小样本学习方法训练完备的深度卷积神经网络模型进行存储;
[0032]检测单元,用于将待测图像输入至所述训练完备的深度卷积神经网络模型中,识别预测通用物品,并输出对应的预测类别和预测目标框。
[0033]本专利技术还提供了一种电力场景通用物品的目标检测装置,包括处理器以及存储器,存储器上存储有计算机程序,计算机程序被处理器执行时,实现如上所述的电力场景通用物品的目标检测方法。
[0034]本专利技术还提供了一种计算机可读存储介质,所述计算机该程序被处理器执行时,实现如上所述的电力场景通用物品的目标检测方法。
[0035]与现有技术相比,本专利技术的有益效果包括:首先,对电力场景下的多幅样本图像进
行有效的获取,并对样本图像进行数据增强,扩充训练样本,避免重复繁琐的标注工作;然后,针对扩充数据集进行标注,由于扩充数据集是基于多幅样本图像的,因而标注效率可大量提高,快速得到充分的训练样本集;进而,基于实际类别、实际目标框、预测类别和预测目标框进行深度卷积神经网络模型的训练,并将训练完备的深度卷积神经网络模型进行存储;最后,将待测图像作为输入,利用所述训练完备的深度卷积神经网络模型即可识别预测通用物品。综上,本专利技术基于数据增强的小样本学习方法,有效避免环境变化的干扰,能准确地识别目标,同时,基于小样本学习的目标检测模型,避免了繁琐的数据标注过程,节约了训练成本,且检测速度快、检测准确率高,可用于物品实时自动识别检测,在保证速度的前提下,可提升相应的准确率,能对不同环境下的物品进行有效识别。
附图说明
[0036]图1为本专利技术提供的电力场景通用物品的目标检测方法一实施例的流程示意图;
[0037]图2为本专利技术提供的图1中步骤S1一实施例的流程示意图;
[0038]图3为本专利技术提供的深度卷积神经网络模型一实施例的网络结构示意图;
[0039]图4为本专利技术提供的图1中步骤S4一实施例的流程示意图;
[0040]图5为本专利技术提供的图1中步骤S5一实施例的流程示意图;
[004本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种电力场景通用物品的目标检测方法,其特征在于,包括:获取电力场景下的多幅样本图像,并对所述多幅样本图像进行数据增强,建立扩充数据集;根据带有标注信息的所述扩充数据集,确定训练样本集,其中,标注信息经过数据增强后的多幅样本图像中存在的通用物品的实际类别和实际目标框;将所述训练样本集输入至深度卷积神经网络模型,确定预测的通用物品的预测类别和预测目标框;根据实际类别、实际目标框、预测类别和预测目标框,确定损失函数,根据所述损失函数的值调整所述深度卷积神经网络模型的参数直至满足收敛条件,完成对所述深度卷积神经网络模型的训练,并将通过使用基于数据增强的小样本学习方法训练完备的深度卷积神经网络模型进行存储;将待测图像输入至训练完备的深度卷积神经网络模型中,识别预测通用物品,并输出对应的预测类别和预测目标框。2.根据权利要求1所述的电力场景通用物品的目标检测方法,其特征在于,所述获取多幅样本图像,并对所述多幅样本图像进行数据增强,建立扩充数据集包括:获取所述多幅样本图像;将所述多幅样本图像进行图像分块,确定对应的多张图像子块;根据所述图像子块和对应的所述多张扩充子块,建立对每一张图像子块进行多种图像处理操作,得到对应的多张扩充子块;所述多张扩充子块构成所述扩充数据集。3.根据权利要求2所述的电力场景通用物品的目标检测方法,其特征在于,所述多种图像处理操作包括调节图像亮度、调节图像色度、调节图像对比度、调节图像锐度以及人工加噪声中的至少一种。4.根据权利要求1所述的电力场景通用物品的目标检测方法,其特征在于,所述深度卷积神经网络模型的网络结构依次包括多个卷积层,每个卷积层具有对应的最大值池化层。5.根据权利要求1所述的电力场景通用物品的目标检测方法,其特征在于,所述根据实际类别、实际目标框、预测类别和预测目标框,确定损失函数包括:根据所述预测目标框和所述实际目标框的重叠度,确定第一置信度损失;根据所述预测目标框和所述实际目标框的误差,确定预测框误差损失;计算将所述预测目标框和所述实际目标框的中心置于同一位置的重叠度,确定第二置信度损失;根据所述预测目标框和所述实际目标框的坐标误差,确定坐标损失;根据所述实际类别和所述预测类别,确定分类损失...

【专利技术属性】
技术研发人员:娄根李慧姝李晨曦刘子涵袁敏轩刘尚禹
申请(专利权)人:苏州经贸职业技术学院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1