System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于深度立体匹配网络的可行驶区域检测方法技术_技高网
当前位置: 首页 > 专利查询>同济大学专利>正文

一种基于深度立体匹配网络的可行驶区域检测方法技术

技术编号:41123958 阅读:8 留言:0更新日期:2024-04-30 17:50
本发明专利技术涉及一种基于深度立体匹配网络的可行驶区域检测方法,包括以下步骤:获取待检测道路的多个立体图像对,所述立体图像对包括左图和右图;采用权重共享沙漏网络从所述立体图像对中提取左图和右图的特征图;将所述左图和右图的特征图输入至训练好的深度立体网络中,得到细化视差图;将左图的特征图和细化视差图进行特征融合,得到融合特征图;基于所述融合特征图,采用密集连接的跳跃连接进行检测,获得可行驶区域。与现有技术相比,本发明专利技术具有计算复杂度低、不依赖于精确视差或深度信息、检测准确性高等优点。

【技术实现步骤摘要】

本专利技术涉及计算机视觉,尤其是涉及一种基于深度立体匹配网络的可行驶区域检测方法


技术介绍

1、可行驶区域检测是自动驾驶领域的重要任务之一,其通常将rgb或深度/视差图像中的每个像素分类为可行驶或不可行驶。然后,自动驾驶系统中的其他模块利用此类像素级分类结果,确保自动驾驶汽车能够在复杂环境中安全导航。

2、可行驶区域检测方法可以分为两类:1)基于传统显式编程的方法和2)数据驱动的方法。前者通常基于“平坦道路”假设,但在现实场景中经常被违反。尽管此类方法已经努力拟合道路视差图以尽量减少偏离“平坦道路”假设的影响,但所取得的结果仍然远不令人满意。

3、最近,随着深度学习技术,特别是卷积神经网络(cnn)的不断进步,人们的注意力已经转向可行驶区域检测算法领域的数据驱动方法。数据驱动的方法通常分为两类:单模态和特征融合。全卷积网络(fcn)标志着语义分割的一个重要里程碑。segnet在fcn的基础上引入了编码器-解码器架构和逐像素分类层,而u-net通过添加跳跃连接来改进它,以更好地保留对象的空间信息。另一方面,金字塔场景解析网络(pspnet)利用金字塔池模块来收集上下文信息以提高语义分割性能。此外,deeplabv3+在其空洞空间金字塔池化和解码器模块中都采用了空洞卷积和深度可分离卷积。这种设计选择使网络能够有效捕获多尺度上下文信息,同时降低计算复杂性。因此,它显著提高了语义分割的效率和准确性。虽然上述单模态网络在语义分割方面取得了很大进展,但它们在可行驶区域检测方面的性能仍然低于预期。

4、为了解决这一限制,研究人员探索引入另一种视觉数据源或模式,例如视差或深度图像,以增强场景理解。fusenet是将特征融合技术引入语义分割的开创性工作。它利用两个独立的编码器来提取rgb和深度特征,随后通过逐元素求和来融合这些特征。mfnet在fusenet的基础上使用了空洞卷积。它引入了一个用于高效特征串联的“迷你初始”块,以及一个具有提取较低级别信息的快捷方式的解码器。rtfnet融合使用了rgb信息和热红外信息以驱动场景解析。它在解码器中引入了一个“upception”块,该块通过捷径传输输入以保留更详细的信息。在之前的工作sne-roadseg中,设计了一个轻量级模块,将视差或深度图转换为表面法线图,并融合从rgb图像和表面法线图提取的特征。尽管特征融合方法的重大进步将可行驶区域检测提升到了一个新的水平,但仍然存在一个显着的缺点:对视差或深度信息的依赖。例如,在sne-roadseg中,用于估计表面法线的深度图至关重要。在这种情况下,为了获得令人满意的可行驶区域检测结果,我们不得不从激光雷达点云中获取视差或深度信息,这需要精确的激光雷达相机校准。然而,校准过程中的任何偏差会给获得特征融合的最佳结果带来挑战。因此,迫切需要探索一种不依赖于精确视差或深度信息的端到端可行驶区域检测方法。


技术实现思路

1、本专利技术的目的就是为了提供一种提高检测准确度的基于深度立体匹配网络的可行驶区域检测方法。

2、本专利技术的目的可以通过以下技术方案来实现:

3、一种基于深度立体匹配网络的可行驶区域检测方法,包括以下步骤:

4、获取待检测道路的多个立体图像对,所述立体图像对包括左图和右图;

5、采用权重共享沙漏网络从所述立体图像对中提取左图和右图的特征图;

6、将所述左图和右图的特征图输入至训练好的深度立体网络中,得到细化视差图;

7、将左图的特征图和细化视差图进行特征融合,得到融合特征图;

8、基于所述融合特征图,采用密集连接的跳跃连接进行检测,获得可行驶区域。

9、进一步地,所述权重共享沙漏网络包括一系列残差块和下采样层。

10、进一步地,采用无监督学习训练所述深度立体网络。

11、进一步地,所述深度立体网络包括级联分组注意力模块、视差回归模块和视差细化模块,所述得到细化视差图的步骤包括:

12、将所述左图和右图的特征图输入至级联分组注意力模块中,获得匹配代价量;

13、在所述视差回归模块中,将匹配代价量回归计算得到初始视差图,并使用视差回归方式进行迭代,获得最终的视差图;

14、基于所述视差细化模块,将左图的第二个特征图和最终的视差图进行连接,生成残差视图和置信图,并进一步生成细化视差图。

15、进一步地,所述级联分组注意力模块由多个分组注意力子模块串联组成,所述分组注意力子模块的损失函数为:

16、

17、式中,cm为第m个分组注意力子模块的损失向量,为上采样,分别为第i个左图和第j个右图的特征图,分别为第m个分组注意力子模块的查询特征图和关键特征图的卷积块,σi、σj分别为第i个左图和第j个右图的特征图的卷积块。

18、进一步地,所述最终的视差图的表达式为:

19、

20、式中,d为最终的视差图,w为图宽度,m为级联分组注意力模块生成的匹配代价量。

21、进一步地,所述细化视差图的表达式为:

22、

23、式中,为细化视差图,mc为置信图,为上采样,d为最终的视差图,dr为残差视差图。

24、进一步地,采用编码器表示共享策略,用于所述特征融合。

25、进一步地,所述融合特征图的表达式为:

26、

27、式中,为融合特征图,为将左图的特征图重新映射到语义特征空间的特征对齐操作,为第i-1个视差图,为左图的特征图,为表示特征融合操作,ε表示立体编码器。

28、进一步地,所述密集连接的跳跃连接是指包括特征提取器和上采样层组成的密集连接的跳跃解码器。

29、与现有技术相比,本专利技术具有以下有益效果:

30、(1)本专利技术将深度立体网络和左右图像进行结合,可以提供更丰富的立体视觉信息,这不仅降低了对精确视差或深度信息的依赖,且有助于更准确地识别和理解场景中的物体和空间布局,从而提高可行驶区域的检测准确性。

31、(2)本专利技术采用编码器表示共享策略,不仅丰富了从图像中提取的特征,且丰富网络对空间信息的理解,有助于提高可行驶区域检测准确性。

32、(3)本专利技术采用左图的第二个特征图和最终的视差图进行连接,第二个特征图包含了低层次的细节信息和高层次的语义信息,这种平衡有助于提高模型对复杂场景的理解,意味着它能够捕捉到更大范围内的上下文信息。

33、(4)相比于现有技术,本专利技术不需要根据三维信息进行可行驶区域检测,降低了计算的复杂度。

本文档来自技高网...

【技术保护点】

1.一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,所述权重共享沙漏网络包括一系列残差块和下采样层。

3.根据权利要求1所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,采用无监督学习训练所述深度立体网络。

4.根据权利要求1所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,所述深度立体网络包括级联分组注意力模块、视差回归模块和视差细化模块,所述得到细化视差图的步骤包括:

5.根据权利要求4所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,所述级联分组注意力模块由多个分组注意力子模块串联组成,所述分组注意力子模块的损失函数为:

6.根据权利要求4所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,所述最终的视差图的表达式为:

7.根据权利要求4所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,所述细化视差图的表达式为:

8.根据权利要求1所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,采用编码器表示共享策略,用于所述特征融合。

9.根据权利要求1所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,所述融合特征图的表达式为:

10.根据权利要求1所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,所述密集连接的跳跃连接是指包括特征提取器和上采样层组成的密集连接的跳跃解码器。

...

【技术特征摘要】

1.一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,所述权重共享沙漏网络包括一系列残差块和下采样层。

3.根据权利要求1所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,采用无监督学习训练所述深度立体网络。

4.根据权利要求1所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,所述深度立体网络包括级联分组注意力模块、视差回归模块和视差细化模块,所述得到细化视差图的步骤包括:

5.根据权利要求4所述的一种基于深度立体匹配网络的可行驶区域检测方法,其特征在于,所述级联分组注意力模块由多个分组注意力子模块串联组成,所述分组注...

【专利技术属性】
技术研发人员:范睿李佳奇吴致远冯翊齐鹏
申请(专利权)人:同济大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1