针对无人巡检的视觉感知场景深度学习小样本训练方法技术

技术编号:37994686 阅读:15 留言:0更新日期:2023-06-30 10:08
本发明专利技术公开了针对无人巡检的视觉感知场景深度学习小样本训练方法,属于车辆控制技术领域,包括以下步骤:S1:采集数据;S2:构建场景识别模型;S3:输出场景特征数据;S4:标注整理;S5:分类及聚类;S6:通过度量学习模型中学习不同场景特征数据的权重系数,调整场景特征数据的重要程度;S7:构建特征分类模型;S8:小样本训练数据集A训练时,先通过场景识别模型一次识别,再通过特征分类模型二次分类,即可得到场景类别;本发明专利技术采用“端到端”训练方法,将训练和分类融入到同一套框架,且准确率方面相比于传统算法更高,平均识别准确率98%左右,识别速度0.02s一张,完全满足使用所需。完全满足使用所需。完全满足使用所需。

【技术实现步骤摘要】
针对无人巡检的视觉感知场景深度学习小样本训练方法


[0001]本专利技术属于车辆控制
,具体涉及针对无人巡检的视觉感知场景深度学习小样本训练方法。

技术介绍

[0002]无人巡检技术是指通过机器代替人工进行巡检的技术,随着社会的发展以及科技的进步,无人巡检技术已经被广泛应用在3C、汽车、家电、机械制造、半导体及电子、化工、医药、航空航天、轻工等行业。
[0003]视觉场景感知是无人巡检机器巡检的基础,能够为无人巡检机器的行为决策和路径规划提供准确可靠的信息源,是无人巡检技术顺利运行的重要保障。
[0004]传统的视觉场景感知是基于机器视觉的智能驾驶感知场景方法,该方法一般是通过常规图像处理算法或人工设计特征加分类器方式达到视觉场景感知的目的,但该方法场景感知过于繁琐,为了解决上述问题,研究人员研究出基于深度学习目标检测的智能场景感知方法,该方法一般是通过标注、训练、推理的方式达到视觉场景感知的目的,但由于该方法所需场景数据量大,实际应用中,缺乏场景数据支持,导致实际使用效果不佳。
[0005]鉴于此,设计针对无人巡检的视觉感知场景深度学习小样本训练方法,以解决上述问题。

技术实现思路

[0006]为解决上述
技术介绍
中提出的问题。本专利技术提供了针对无人巡检的视觉感知场景深度学习小样本训练方法,具有解决了现有方法在训练阶段样本不充分情况下导致模型过拟合或性能恶化问题的特点。
[0007]为实现上述目的,本专利技术提供如下技术方案:针对无人巡检的视觉感知场景深度学习小样本训练方法,包括以下步骤:
[0008]S1:采集无人巡检场景基本样本数据,对基本样本数据进行基本标注,并将基本样本数据分为训练数据集A、验证数据集A和小样本训练数据集A;
[0009]S2:通过训练数据集A和验证数据集A构建出场景识别模型;
[0010]S3:场景识别模块构建过程中对验证数据集A的验证数据进行基于特征的场景识别,并输出场景特征数据;
[0011]S4:根据场景识别模型输出的场景特征数据进行标注整理;
[0012]S5:根据标注对场景特征数据进行分类及聚类;
[0013]S6:将提取的场景特征数据以及聚类数据输入度量学习模型中学习不同场景特征数据的权重系数,通过权重系数调整场景特征数据的重要程度;
[0014]S7:通过场景特征数据和权重系数构建出特征分类模型;
[0015]S8:小样本训练数据集A训练时,先通过场景识别模型一次识别,再通过特征分类模型二次分类,即可得到场景类别。
[0016]优选的,所述步骤S2中,场景识别模型的构建步骤为:
[0017]S21:将训练数据集A中的训练数据依次输入场景识别模型中进行输出训练,直至识别准确率达到最佳停止,训练完成;
[0018]S22:将验证数据集A中的验证数据依次输入场景识别模型中进行输出验证,直至验证准确率与最佳识别准确率相同,即场景识别模型构建完成。
[0019]优选的,所述步骤S3中,场景识别模块对验证数据集A的验证数据进行基于特征的场景识别是基于场景识别模块准确率达到最佳的情况下,若场景识别模块准确率未达到最佳,则继续通过训练数据集A进行训练,其用于验证的验证数据集A的验证数据不进行基于特征的场景识别。
[0020]优选的,所述步骤S5中,场景特征数据的分类方法采用的是过滤法,聚类方法采用的是划分聚类法。
[0021]优选的,所述步骤S6中,度量学习模型的构建步骤为:
[0022]S61:采集历史场景特征数据、历史聚类数据以及确定该历史场景特征数据的权重系数,分为训练数据集B和验证数据集B;
[0023]S62:将训练数据集B中的历史场景特征数据以及历史聚类数据依次输入度量学习模型中进行权重系数输出训练,与该历史场景特征数据确定的权重系数进行对比,直至判断准确率达到最佳停止,训练完成;
[0024]S63:将验证数据集B中的验证数据依次输入度量学习模型中进行权重系数输出验证,直至验证准确率与最佳识别准确率相同,即度量学习模型构建完成。
[0025]优选的,所述步骤S7中,特征分类模型的构建步骤为:
[0026]S71:采集历史场景特征数据、历史权重系数数据以及确定该历史场景特征数据的分类,分为训练数据集C和验证数据集C;
[0027]S72:将训练数据集C中的历史场景特征数据以及历史权重系数数据依次输入特征分类模型中进行权重系数输出训练,与该历史场景特征数据确定的分类进行对比,直至判断准确率达到最佳停止,训练完成;
[0028]S73:将验证数据集C中的验证数据依次输入特征分类模型中进行分类输出验证,直至验证准确率与最佳识别准确率相同,即特征分类模型构建完成。
[0029]与现有技术相比,本专利技术的有益效果是:
[0030]1、本专利技术相较于传统算法特征工程、分类器过于繁琐的构建方法而言,采用“端到端”训练方法,将训练和分类融入到同一套框架,且准确率方面相比于传统算法更高,平均识别准确率98%左右,识别速度0.02s一张,完全能满足使用所需。
[0031]2、本专利技术相较于现有深度学习目标检测方法而言,通过度量学习的方法,解决了现有方法在训练阶段样本不充分情况下导致模型过拟合或性能恶化的问题。
附图说明
[0032]图1为本专利技术针对无人巡检的视觉感知场景深度学习小样本训练方法的流程图。
具体实施方式
[0033]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完
整地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0034]请参阅图1,本专利技术提供以下技术方案:针对无人巡检的视觉感知场景深度学习小样本训练方法,包括以下步骤:
[0035]S1:采集无人巡检场景基本样本数据,对基本样本数据进行基本标注,并将基本样本数据分为训练数据集A、验证数据集A和小样本训练数据集A;
[0036]S2:通过训练数据集A和验证数据集A构建出场景识别模型,其中,场景识别模型的构建步骤为:
[0037]S21:将训练数据集A中的训练数据依次输入场景识别模型中进行输出训练,直至识别准确率达到最佳停止,训练完成;
[0038]S22:将验证数据集A中的验证数据依次输入场景识别模型中进行输出验证,直至验证准确率与最佳识别准确率相同,即场景识别模型构建完成;
[0039]S3:场景识别模块构建成功过程中对验证数据集A的验证数据进行基于特征的场景识别,并输出场景特征数据;
[0040]S4:根据场景识别模型输出的场景特征数据进行标注整理;
[0041]S5:根据标注对场景特征数据通过过滤法进行分类及通过划分聚类法进行聚类;
[0042]S6:将提取的场景特本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.针对无人巡检的视觉感知场景深度学习小样本训练方法,其特征在于,包括以下步骤:S1:采集无人巡检场景基本样本数据,对基本样本数据进行基本标注,并将基本样本数据分为训练数据集A、验证数据集A和小样本训练数据集A;S2:通过训练数据集A和验证数据集A构建出场景识别模型;S3:场景识别模块构建过程中对验证数据集A的验证数据进行基于特征的场景识别,并输出场景特征数据;S4:根据场景识别模型输出的场景特征数据进行标注整理;S5:根据标注对场景特征数据进行分类及聚类;S6:将提取的场景特征数据以及聚类数据输入度量学习模型中学习不同场景特征数据的权重系数,通过权重系数调整场景特征数据的重要程度;S7:通过场景特征数据和权重系数构建出特征分类模型;S8:小样本训练数据集A训练时,先通过场景识别模型一次识别,再通过特征分类模型二次分类,即可得到场景类别。2.根据权利要求1所述的针对无人巡检的视觉感知场景深度学习小样本训练方法,其特征在于:所述步骤S2中,场景识别模型的构建步骤为:S21:将训练数据集A中的训练数据依次输入场景识别模型中进行输出训练,直至识别准确率达到最佳停止,训练完成;S22:将验证数据集A中的验证数据依次输入场景识别模型中进行输出验证,直至验证准确率与最佳识别准确率相同,即场景识别模型构建完成。3.根据权利要求1所述的针对无人巡检的视觉感知场景深度学习小样本训练方法,其特征在于:所述步骤S3中,场景识别模块对验证数据集A的验证数据进行基于特征的场景识别是基于场景识别模块准确率达到最佳的情况下,若场景识别模块准确率未达到最佳,则继续通过训练数据集A进行训练...

【专利技术属性】
技术研发人员:周佳齐刘鑫达许龙
申请(专利权)人:中科星河机器人苏州有限公司
类型:发明
国别省市:

相关技术
    暂无相关专利
网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1