The present invention provides an estimation method based on infrared image and radar data of the unmanned vehicle night scene depth, first build the night vision image data sets, including the original sample image and pre classification of the original sample image after the radar data of night vision image data set, the original sample image and radar data is written to the corresponding text file; and construction of convolutional neural network deconvolution, training set depth neural network using convolution deconvolution of night vision image data; and then obtain the real-time image processing, image input depth the convolution deconvolution neural network, get the feature maps by deep convolutional neural network, feature maps input deconvolutional networks each pixel feature map obtained in the category, the output probability map; the probability map, take anti log transform of each pixel Estimated depth. Experiments have proved that the method provided by the invention can effectively estimate the depth of night scenes, and ensure the correctness and the timeliness of the estimation.
【技术实现步骤摘要】
基于红外图像和雷达数据的夜间无人车场景深度估计方法
本专利技术涉及一种基于红外图像和雷达数据的夜间无人车场景深度估计方法,通过本方法可对红外图像中的场景的空间位置信息进行估计。
技术介绍
图像的深度估计指的是从图像中获取深度距离信息,从本质上讲是一个深度感知的问题。从场景的一幅和多幅图像中恢复场景的三维深度信息是机器视觉领域的一个基本研究课题,在机器人运动控制、场景理解、场景重建等领域具有重要的应用。深度估计技术主要有针对双目深度线索和基于图像序列的深度估计展开的方法,这两种方法都依赖于图像间的特征差异。对于单目图像深度估计,在早期的研究中比较经典的是由“阴影恢复形状(shapefromshading)”,该算法以空间几何知识为基础,依据图像的阴影恢复物体的深度信息。之后,研究者逐渐发现经验的重要性,开始利用机器学习的方法去解决这一问题。斯坦福大学AndrewNg的团队通过利用马尔科夫场训练的模型对单幅图像进行深度估计,达到了很好的效果。之后,在此基础上,LiuFayao等(F.Liu,C.Shen,andG.Lin.Deepconvolutionalneuralfieldsfordepthestimationfromasingleimage.inProc.IEEEConf.ComputerVisionandPatternRecognition,2015.)引入条件随机场(ConditionalRandomField,CRF)和深度卷积神经网络(DeepConvolutionalNeuralNetworks,DNN)技术,经过深度网络学习,不需要任何先验知 ...
【技术保护点】
一种基于红外图像和雷达数据的夜间无人车场景深度估计方法,其特征在于,包括如下步骤:步骤1:构建夜视图像数据集,夜视图像数据集中包括原始样本图像及对原始样本图像进行预分类后的雷达数据,将原始样本图像和雷达数据写入对应的文本文件中;步骤2:构建深度卷积‑反卷积神经网络,利用夜视图像数据集训练深度卷积‑反卷积神经网络;深度卷积‑反卷积神经网络包括深度卷积神经网络及反卷积网络,深度卷积神经网络的作用是通过一系列的卷积、激励和池化的过程提取原始样本图像的特征,从而得到特征图;反卷积网络的作用将特征图映射到雷达数据矩阵的大小;步骤3:实时获取待处理的图像,将待处理的图像输入步骤2训练后的深度卷积‑反卷积神经网络,通过深度卷积神经网络得到特征图,将特征图输入反卷积网络得到特征图中每个像素点所属类别,输出概率图;步骤4:将步骤3得到的概率图,采取反log变换得到每个像素点的估计深度。
【技术特征摘要】
1.一种基于红外图像和雷达数据的夜间无人车场景深度估计方法,其特征在于,包括如下步骤:步骤1:构建夜视图像数据集,夜视图像数据集中包括原始样本图像及对原始样本图像进行预分类后的雷达数据,将原始样本图像和雷达数据写入对应的文本文件中;步骤2:构建深度卷积-反卷积神经网络,利用夜视图像数据集训练深度卷积-反卷积神经网络;深度卷积-反卷积神经网络包括深度卷积神经网络及反卷积网络,深度卷积神经网络的作用是通过一系列的卷积、激励和池化的过程提取原始样本图像的特征,从而得到特征图;反卷积网络的作用将特征图映射到雷达数据矩阵的大小;步骤3:实时获取待处理的图像,将待处理的图像输入步骤2训练后的深度卷积-反卷积神经网络,通过深度卷积神经网络得到特征图,将特征图输入反卷积网络得到特征图中每个像素点所属类别,输...
【专利技术属性】
技术研发人员:姚广顺,孙韶媛,叶国林,高凯珺,
申请(专利权)人:东华大学,
类型:发明
国别省市:上海,31
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。