The invention discloses a road damage identification method based on convolution neural network and Kalman filter. Before road repairing, road maintenance workers need to investigate the condition of road surface. This project needs huge manpower, material and financial resources. The steps of the present invention are as follows: 1. image preprocessing. 2. Training of image enhancement and convolution neural network. 3. k = 1, 2,... M, step 4 to 6 in turn. M is the number of images to be measured. Fourthly, enlarge and adjust the k-image to 300*300 resolution. Fifthly, the k-stretch image obtained in step 5 is input into the convolutional neural network trained in step 2. 6. The initial weights obtained in step 5 are optimized by Kalman filtering algorithm. The method adopts feedforward operation, random gradient descent method, feedback operation, PCA dimension reduction and Kalman filter to update real-time parameters, and establishes a convolution neural network model with high accuracy.
【技术实现步骤摘要】
基于卷积神经网络和卡尔曼滤波的道路损伤识别方法
本专利技术属于图像处理
,具体涉及一种基于卷积神经网络和卡尔曼滤波的道路损伤识别方法。
技术介绍
道路损坏出现裂缝是当今道路养护面临的主要问题,众多损坏道路的修复是一项巨大的工程。修复之前,养路工人需要对路面情况进行调研,此项工程需要耗费巨大的人力、物力和财力。随着高科技的发展,科学家想到了一种简便的方法,用精密的拍照仪器安放在汽车前段,可以在短时间内得到大量的有用图片,再经过筛选,截取出有用的道路损坏图像。将采集到的道路损伤图像分为8类,分类情况如下:D00表示直线裂缝有纵向车轮标记部分、D01表示施工缝部分、D10表示等间隔线部分、D11表示横向施工缝部分、D20表示龟裂缝有部分路面和整体路面、D40表示凹陷坑洞分离、D43表示白线的模糊和D44表示人行横道线的模糊。深度神经网络是人工智能应用的基础,在很多方面都有用到,例如在语音识别、图像识别和无人驾驶汽车等方面。在许多领域中,目前深度学习卷积神经网络的准确性已经超过人类。与早期的专家手动提取特征或制定规则不同,深度学习卷积神经网络的优越性能来自于在大量数据上使用统计学习方法,从原始数据中提取高级特征的能力,从而对输入空间进行有效的表示。但深度学习卷积神经网络超高的分类准确性是以超高的计算复杂度为代价的。
技术实现思路
本专利技术的目的在于提供用于一种基于卷积神经网络和卡尔曼滤波的道路损伤识别方法。本专利技术的具体步骤如下:步骤1、对n张含有道路损伤的损伤图进行排序。第i张损伤图的分辨率为vi×hi,vi为第i张损伤图上一行像素的个数;hi为第i张损伤 ...
【技术保护点】
1.基于卷积神经网络和卡尔曼滤波的道路损伤识别方法,其特征在于:步骤1、对n张含有道路损伤的损伤图进行排序;第i张损伤图的分辨率为vi×hi,vi为第i张损伤图上一行像素的个数;hi为第i张损伤图上一列像素的个数,i=1,2,…,n;第i张损伤图的损伤类别为zi;步骤2、图像增强与卷积神经网络的训练;2.1、i=1,2,…,n,依次执行步骤2.2至2.4;2.2、将步骤1所得第i张损伤图放大ti倍;若hi>vi,则ti=300/hi,并将第i张损伤图的左
【技术特征摘要】
1.基于卷积神经网络和卡尔曼滤波的道路损伤识别方法,其特征在于:步骤1、对n张含有道路损伤的损伤图进行排序;第i张损伤图的分辨率为vi×hi,vi为第i张损伤图上一行像素的个数;hi为第i张损伤图上一列像素的个数,i=1,2,…,n;第i张损伤图的损伤类别为zi;步骤2、图像增强与卷积神经网络的训练;2.1、i=1,2,…,n,依次执行步骤2.2至2.4;2.2、将步骤1所得第i张损伤图放大ti倍;若hi>vi,则ti=300/hi,并将第i张损伤图的左列像素以第i张损伤图的左侧边缘作为对称轴进行镜像对称,并将第i张损伤图的右行像素以第i张损伤图的右侧边缘作为对称轴进行镜像对称,得到分辨率为300×300的第i张一级扩展图;若hi≤vi,则t=300/vi,并将第i张损伤图的上行像素以第i张损伤图的上侧边缘作为对称轴进行镜像对称,并将第i张损伤图的下行像素以第i张损伤图的下侧边缘作为对称轴进行镜像对称,得到分辨率为300×300的第i张一级扩展图;2.3、将步骤2.2所得的第i张一级扩展图放大1.5倍,得到分辨率为450×450的第i张二级扩展图;将第i张一级扩展图放大2倍,得到分辨率为600×600的第i张三级扩展图;2.4、用步骤2.2所得的第i张一级扩展图复制出第i张四级扩展图、第i张五级扩展图、第i张六级扩展图、第i张七级扩展图;并将第i张四级扩展图、第i张五级扩展图、第i张六级扩展图、第i张七级扩展图分别调整为0.8倍、0.9倍、1.1倍和1.2倍;2.5、将第i张一级扩展图、第i张二级扩展图、第i张三级扩展图、第i张四级扩展图、第i张五级扩展图、第i张六级扩展图和第i张七级扩展图导入卷积神经网络进行训练;步骤3、k=1,2,…,m,依次执行步骤4至6;m为被测图像的数量;步骤4、将分辨率为v′k×h′k的第k张被测图像...
【专利技术属性】
技术研发人员:张敬,李艳,杨明月,文成林,
申请(专利权)人:杭州电子科技大学,
类型:发明
国别省市:浙江,33
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。