The invention relates to a scene depth recovery method based on multi-information fusion of depth neural network, belonging to the field of image processing. In this method, the depth convolution network is used to predict the depth image boundary, and the obtained boundary is used to guide the interpolation to obtain high quality depth map. Color image aided edge prediction can better predict the edges that are not obvious in low resolution depth images. Color image aided interpolation can make the depth images conform to the spatial structure of the actual scene. The method is simple and easy to implement. Depth information is obtained by dividing the predicted edges into blocks, which is fast in calculation, avoids the interference of depth information in different regions, and has high accuracy. The high-resolution depth images obtained are clear and sharp in boundary.
【技术实现步骤摘要】
一种基于深度神经网络的多信息融合的场景深度恢复方法
本专利技术属于图像处理领域,涉及采用深度卷积网络预测深度图像边界,并使用边界指导进行插值以求得高质量深度图,具体涉及一种基于深度神经网络的多信息融合的场景深度恢复方法。场景深度对于自然场景理解十分重要,广泛用于三维(3D)建模,可视化以及自动驾驶等;然而实际场景的复杂性以及图像传感器的限制,获取的场景深度信息的准确性以及分辨率都不足以应用到实际场景。例如当前微软的第二代Kinect(Kinect2)采集的深度图像的分辨率仅为512×424,而对应的彩色图像的分辨率为1920×1080。一般实际使用采集到的深度信息需要将获取的深度信息提升分辨率。通常,恢复高分辨率的场景深度图像的一个方法是使用对应的彩色图像辅助进行双边插值进行深度图像的恢复。一些现有方法根据彩色图像和深度图像的纹理对应的性质设计了能量函数(J.Yang,X.Ye,K.Li,C.Hou,andY.Wang,“Color-guideddepthrecoveryfromRGBDdatausinganadaptiveautoregressivemodel.”IEEETIP,vol.23,no.8,pp.3443–3458,2014),通过优化能量函数使恢复的深度图像既满足值大小的分布和小分辨率的图像分布相同,又满足纹理上的相容性。一些方法构建边界字典存储小分辨率的深度图的纹理和高分辨率的深度图的纹理对应关系(JunXie,R.S.Feris,andMingTingSun,“Edge-guidedsingledepthimagesuperreso ...
【技术保护点】
1.一种基于深度神经网络的多信息融合的场景深度恢复方法,其特征在于,包括如下步骤:第一步,准备训练数据,包括高分辨率的彩色图像、低分辨率的深度图像和高分辨率的深度图像对应的边界图像;第二步,搭建边界预测网络,输入的彩色图像经过一次卷积和一个包括两个卷积的残差结构,得到彩色分支的特征图;输入的深度图像使用反卷积操作实现两次上采样,分辨率和彩色图像分辨率一样大小,每次反卷积之前经过3次卷积,其中,后两次卷积使用残差网络的结构;融合高分辨率的彩色图像的特征图之后,预测得到对应于高分辨率深度图像的边界图像;第三步,构建损失函数并训练网络;损失函数
【技术特征摘要】
1.一种基于深度神经网络的多信息融合的场景深度恢复方法,其特征在于,包括如下步骤:第一步,准备训练数据,包括高分辨率的彩色图像、低分辨率的深度图像和高分辨率的深度图像对应的边界图像;第二步,搭建边界预测网络,输入的彩色图像经过一次卷积和一个包括两个卷积的残差结构,得到彩色分支的特征图;输入的深度图像使用反卷积操作实现两次上采样,分辨率和彩色图像分辨率一样大小,每次反卷积之前经过3次卷积,其中,后两次卷积使用残差网络的结构;融合高分辨率的彩色图像的特征图之后,预测得到对应于高分辨率深度图像的边界图像;第三步,构建损失函数并训练网络;损失函数衡量训练数据上由彩色图像I和低分辨率深度图Dl预测的边界结果E和真实提取的边界Egt的差距;其中,表示网络推断过程;表示2范数;网络训练过程即是在训练数据不断优化网络参数w使收敛得到最终的第四步,预测低分辨率的深度图对应的高分辨率的场景深度图像的边界;根据测试集上的彩色图像I和低分辨率深度图Dl,经过网络得到边界第五步,根据彩色图像I和低分辨率深度图Dl进行分区域插值或拷贝得到高分辨率深度图Dh。2.根据权利要求1所述的一种基于深度神经网络的多信息融合的场景深度恢复方法:,其特征在于:第五步,根据彩色...
【专利技术属性】
技术研发人员:叶昕辰,段祥越,严倩羽,李豪杰,
申请(专利权)人:大连理工大学,
类型:发明
国别省市:辽宁,21
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。