一种基于YOLO的隧道内铁轨缺陷检测方法技术

技术编号:25442399 阅读:34 留言:0更新日期:2020-08-28 22:29
一种基于YOLO的隧道内铁轨表面缺陷检测方法,包括如下步骤:1)具有图像采集、自主定位功能的无人机从以隧道入口为初始点,隧道出口为结束点;进入隧道内对铁轨进行巡检;2)采集铁轨表面实时图像信息,实时检测铁轨表面缺陷,若检测到表面缺陷,则进入步骤3);否则重复步骤2),直至到达结束位置;3)存储当前图片,标记图中缺陷位置,同时记录缺陷类型及当前无人机位置信息。本发明专利技术可提高隧道内铁轨缺陷检测效率及检测精度。

【技术实现步骤摘要】
一种基于YOLO的隧道内铁轨缺陷检测方法
本专利技术涉及缺陷检测领域和无人机领域,尤其涉及一种基于YOLO的隧道内铁轨表面缺陷检测方法。
技术介绍
如今,交通运输已经成为我们生活的一部分,特别是铁路运输。中国的铁路运输正处于飞速发展阶段,而其中的铁轨表面是目前列车安全运行中比较薄弱的环节。针对铁轨表面缺陷类型,主要分为磨损、裂纹、压陷、剥落等影响铁轨正常使用和威胁列车安全行驶的隐患。传统的隧道铁轨巡检方式主要通过人工巡检,但该方式存在许多安全隐患,在耗费大量人力的同时也因隧道内光线昏暗导致漏检误检情况严重。因此,一种行之有效的方法是使用无人机来检测隧道内铁轨表面缺陷情况。建立铁轨表面缺陷数据集,基于YOLO框架模型实现对铁轨表面缺陷的识别,通过无人机巡检实现实时检测,同时使用改进的损失函数提升对铁轨小缺陷的检测精度。
技术实现思路
本专利技术所要解决的技术问题是提供一种无人机针对隧道内铁轨表面缺陷的检测方法,可提高检测效率及检测精度。为解决上述技术问题,本专利技术的技术方案是一种基于YOLO的隧道内铁轨表面缺陷检测方法,包括如下步骤:1)具有图像采集、自主定位功能的无人机从以隧道入口为初始点,隧道出口为结束点;进入隧道内对铁轨进行巡检;2)采集铁轨表面实时图像信息,实时检测铁轨表面缺陷,若检测到表面缺陷,则进入步骤3);否则重复步骤2),直至到达结束位置;3)存储当前图片,标记图中缺陷位置,同时记录缺陷类型及当前无人机位置信息。无人机使用激光雷达配合SLAM算法构建隧道巡检地图,并在巡检工作中进行实时定位。在无人机机体下方搭载3*3可控阵列光源,针对隧道内光照不足的情况进行补光,光源光照强度L调节公式为:L=L0+u其中:其中光源光照强度控制如下:自然光条件下,无人机拍摄铁轨表面的初始灰度均值隧道环境内采集图像的灰度均值h,L0为初始光照强度,设置为100Lux,u∈[-10,10],Kp和Kd分别为比例系数和微分系数。无人机未检测到缺陷时速度v为:其中:v0为初始速度,Kv为调节系数,其取值范围为[0,0.5];为算法理想情况下运行时的平均检测帧率,fq为巡检过程中的实时检测帧率。步骤2)中,对于采集的缺陷图像的检测步骤如下:A1、采集图像预处理:采集铁轨表面的缺陷图像,对其进行预处理,所述预处理包括铁轨定位、图像增强和图像去噪,保护目标信息并消除非铁轨区域和噪声的干扰,增强图像对比度;A2、图像张量值获取:将预处理后的缺陷图像作为输入图像,在网络中进行特征提取,得到三种尺度的特征图,并通过上采样得到张量值;A3、目标边界框的预测:通过转换获取图像中的标签数据,包括中心坐标值bx,by,宽高值bw,bh和类别,进行目标边界框的预测;A4、损失函数的计算,损失函数主要包括三个部分:目标定位偏移量损失,目标置信度损失和目标分类损失。步骤A1中图像预处理中:铁轨定位采用OTSU算法进行图像分割,得到完整铁轨表面区域图像;图像增强采用局部对比度法实现图像对比度增强;图像去噪采用多级中值滤波去噪,抑制噪声的同时保护铁轨上细小结构。图像增强中的图像对比度D(x,y)计算公式如下:h(x,y)是图像中像素点(x,y)的灰度值,hB为像素点(x,y)邻域B中灰度均值,其中区域B定义为以像素点(x,y)为中心的1×150的线型区域。步骤A2中得到的三种特征图尺度分别为13*13、26*26和52*52,三种尺度的特征图结合成为最终输出,并得到三个张量值,分别为(S,3,13/26/52,13/26/52,3*(W+C+L)),其中,S表示特征图网格尺寸,W表示预测得到的预测结果的中心坐标值和宽高值,C表示预测框的置信度,L表示在该特征点上预测类别的概率。步骤A3中转换过程为:设预测的边界框中心相对于其所在网格左上角坐标与网格边长的比值分别为tx和ty,激活函数采用Sigmoid函数,则边界框的中心点坐标(bx,by),宽bw,高bh和置信度bc分别为bx=σ(tx)+cxby=σ(ty)+cybc=σ(tc)最终预测边界框输出表示为b=(bx,by,bw,bh,bc)T;其中cx,cy为预设的预测网络,pw,ph为预设的anchor值;置信度σ(tc)由包含该物体概率pr(class)和边框准确度两部分组成,即其中是预测框与真实框的交并比;设置阈值将得到的多个预测矩形框通过非极大抑制算法处理,最终得到最可靠的矩形框。步骤A4中所使用损失函数导数形式为:其中σ∈(-1,1)。对于较大的误差,该损失函数可以将其进行适当地缩小,这样当梯度传播到Sigmoid函数时,能够加快初始时的收敛速度,减少梯度消失的影响。同时,当误差已经逼近0的情况,能够使输出层权重的调整幅度更小,使模型得到更好收敛。该损失函数对误差变化具有较好的跟随性,能够随着误差的变化而变化,具有误差大时梯度大,误差小时梯度小的性质,能够根据误差的变化调整权重,使网络模型收敛的更好。使用该改进损失函数,提升了该网络在检测铁轨小缺陷时的检测速度与精度。与现有技术相比,本专利技术的优异效果是:使用无人机作为巡检主体,避免了传统检测方法的诸多弊端,降低了人工检测时人力成本,避免隧道内可能出现的变故对检测人员的安全威胁。该方法基于YOLO框架,使用局部对比度法和多级中值滤波实现图像预处理,通过改进损失函数提升小目标检测精度。同时在巡检过程中,能够根据缺陷检测速率对无人机飞行速度进行调整,从而获得最优的检测结果。附图说明图1,为本专利技术无人机隧道巡检工作流程图。图2,为本专利技术铁轨缺陷检测流程图。具体实施方式下面对本专利技术的具体实施方式进行描述,以便于本
的技术人员理解本专利技术,但应该清楚,本专利技术不限于具体实施方式的范围,对本
的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本专利技术的精神和范围内,这些变化是显而易见的,一切利用本专利技术构思的专利技术创造均在保护之列。首先,在无人机搭载高清摄像头、激光雷达。由于隧道内光照效果可能比较差,因此,在机体下方搭载3*3可控阵列光源可根据隧道内光照情况进行补光。通过激光雷达对无人机进行自主定位,高清摄像头对隧道内铁轨表面进行拍摄,以获取铁轨表面状况信息。在开始巡检前,设定巡检初始位置及结束位置,初始位置为隧道入口处,结束位置为隧道出口处。无人机从初始点起飞,进入隧道环境开始巡检工作。无人机到达隧道出口处后,则巡检工作结束,无人机在指定降落平台降落。无人机作为该检测方法的巡检载体,使用激光雷达配合SLAM算法构建隧道巡检地图,并在巡检工作中实时定位。无人机位置信息通过激光雷达配合SLAM算法获取,该技术为无人机使用中的成熟技术,在此则不再赘述。本文档来自技高网
...

【技术保护点】
1.一种基于YOLO的隧道内铁轨表面缺陷检测方法,包括如下步骤:/n1)具有图像采集、自主定位功能的无人机从以隧道入口为初始点,隧道出口为结束点;进入隧道内对铁轨进行巡检;/n2)采集铁轨表面实时图像信息,实时检测铁轨表面缺陷,若检测到表面缺陷,则进入步骤3);否则重复步骤2),直至到达结束位置;/n3)存储当前图片,标记图中缺陷位置,同时记录缺陷类型及当前无人机位置信息。/n

【技术特征摘要】
1.一种基于YOLO的隧道内铁轨表面缺陷检测方法,包括如下步骤:
1)具有图像采集、自主定位功能的无人机从以隧道入口为初始点,隧道出口为结束点;进入隧道内对铁轨进行巡检;
2)采集铁轨表面实时图像信息,实时检测铁轨表面缺陷,若检测到表面缺陷,则进入步骤3);否则重复步骤2),直至到达结束位置;
3)存储当前图片,标记图中缺陷位置,同时记录缺陷类型及当前无人机位置信息。


2.根据权利要求书1所述的基于YOLO的隧道内铁轨表面缺陷检测方法,其特征在于,步骤1)中所述无人机使用激光雷达配合SLAM算法构建隧道巡检地图,并在巡检工作中进行实时定位。


3.根据权利要求书1所述的基于YOLO的隧道内铁轨表面缺陷检测方法,其特征在于,在无人机机体下方搭载可控阵列光源,针对隧道内光照不足的情况进行补光,光源光照强度L调节公式为:
L=L0+u



其中:其中光源光照强度控制如下:
自然光条件下,无人机拍摄铁轨表面的初始灰度均值隧道环境内采集图像的灰度均值h,L0为初始光照强度,设置为100Lux,u∈[-10,10],Kp和Kd分别为比例系数和微分系数。


4.根据权利要求书1所述的基于YOLO的隧道内铁轨表面缺陷检测方法,其特征在于,无人机未检测到缺陷时速度v为:



其中:v0为初始速度,Kv为调节系数,其取值范围为[0,0.5];为算法理想情况下运行时的平均检测帧率,fq为巡检过程中的实时检测帧率。


5.根据权利要求书1所述的基于YOLO的隧道内铁轨表面缺陷检测方法,其特征在于步骤2)中,对于采集的缺陷图像的检测步骤如下:
A1、采集图像预处理:采集铁轨表面的缺陷图像,对当前视频帧图像进行预处理,所述预处理包括铁轨定位、图像增强和图像去噪,保护目标信息并消除非铁轨区域和噪声的干扰,增强图像对比度;
A2、图像特征提取:将预处理后的缺陷图像作为输入图像,在网络中进行特征提取,得到三种尺度的特征图,并通过上采样得到张量值;
A3、目标边界框的预测:通过转换获取图像中的标签数据,包括中心坐标值bx,by,宽高值bw,bh和类别,进行目标边界框的预测;
A4、损失回归:损失函数的计算,损失函数主要包括三个部分:目标定位偏移量损失,目标置信度损失和目标分类损失。

【专利技术属性】
技术研发人员:楚红雨王阳王亮
申请(专利权)人:鲲鹏通讯昆山有限公司昆山鲲鹏无人机科技有限公司苏州明逸智库信息科技有限公司
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1