The invention discloses a fast driving scene segmentation method based on multi-level feature fusion. Firstly, scene pictures are coded and pooled by deep neural network, and then densified feature maps are obtained by decoding. Then, features of different feature spaces are fused by multi-level feature fusion technology, and feature fusion maps containing more global information of feature maps are obtained. It classifies the pixels in the feature fusion image and gets the driving scene segmentation image based on the pixels. In this way, the computational complexity can be reduced on the premise of obtaining the global information of the feature map, and the scene segmentation speed can be greatly improved under the condition of meeting the requirements of unmanned driving, which is conducive to the realization of fast semantic segmentation technology, and then provides technical support for unmanned driving.
【技术实现步骤摘要】
基于多层次特征融合的快速无人车驾驶场景分割方法
本专利技术属于场景分割
,更为具体地讲,设计一种快速的基于多层次特征融合的无人车室外场景分割方法。
技术介绍
近年来,人工智能越来越炙手可热,无人驾驶作为其中的一员,已经从技术研发逐渐转向市场应用。目前国内外各大车企,互联网公司纷纷将其设为重点发展方向。在国外,英国和美国政府也相继发布人工智能报告,并在报告中提及无人驾驶的发展和其良好的发展前景。而我国的科学技术部在刚出台的“科技创新2030—重大项目”中首次将人工智能升级到国家层次战略,并将无人驾驶列为重点发展对象。在无人驾驶技术中,对驾驶场景进行语义分割处于核心地位,作为基础功能,语义分割可以为无人车驾驶系统提供丰富的信息,且具有较好的鲁棒性。近年来,随着以卷积神经网络为代表的深度学习的快速发展,很多视觉领域开始大量使用卷积神经网络。在语义分割领域,以FCN为代表的卷积模型首次在速度和精度两方面大幅度超越传统分割模型。因为卷积神经网络在训练过程中是一个参数学习过程,之后可以直接使用训练好的参数来进行训练,所以其速度较快。和传统模型相比,基于卷积神经网络的模型可以提取更鲁棒的特征。综合分析,基于卷积神经网络的语义分割是面向无人车驾驶场景最好的选择。但是,对于无人驾驶场景理解,语义分割的结果不仅需要有较高的精度,同时需要保证一定的速度,从而能够保证智能驾驶过程中对场景理解的实时性,进而确保及时对智能车进行控制与决策。
技术实现思路
本专利技术的目的在于克服现有技术的不足,提供一种基于多层次特征融合的快速无人车驾驶场景分割方法,通过多层次特征融合处理,能够更好 ...
【技术保护点】
1.一种基于多层次特征融合的快速无人车驾驶场景分割方法,其特征在于,包括:S1.利用深度神经网络对无人车驾驶场景图片进行编码,得到稀疏特征图;S2.对不同的特征空间中的稀疏特征图进行解码,得到稠化特征图;S3.对不同特征空间的稠化特征图利用1x1的卷积核进行卷积,获取稠化特征图的全局信息;S4.对不同特征空间卷积后的稠化特征图进行融合,得到包含驾驶场景全局信息的特征融合图;S5.利用深度神经网络末端的soft‑max分类器将融合后特征图的像素点进行分类,得到基于像素点的驾驶场景分割图。
【技术特征摘要】
1.一种基于多层次特征融合的快速无人车驾驶场景分割方法,其特征在于,包括:S1.利用深度神经网络对无人车驾驶场景图片进行编码,得到稀疏特征图;S2.对不同的特征空间中的稀疏特征图进行解码,得到稠化特征图;S3.对不同特征空间的稠化特征图利用1x1的卷积核进行卷积,获取稠化特征图的全局信息;S4.对不同特征空间卷积后的稠化特征图进行融合,得到包含驾驶场景全局信息的特征融合图;S5.利用深度神经网络末端的soft-max分类器将融合后特征图的像素点进行分类,得到基于像素点的驾驶场景分割图。2.根据权利要求1所述的基于多层次特征融合的快速无人车驾驶场景分割方法,其特征在于,S1中,将摄像头采集的车道图片输入深度神经网络,深度神经网络通过编码部分的卷积操作、池化操作对输入的场景图片进行特征提取得...
【专利技术属性】
技术研发人员:王祎男,曹容川,李诚,
申请(专利权)人:中国第一汽车股份有限公司,
类型:发明
国别省市:吉林,22
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。