一种基于光场图像的多传感器融合测距系统及方法技术方案

技术编号:41708135 阅读:19 留言:0更新日期:2024-06-19 12:38
本发明专利技术涉及一种基于光场图像的多传感器融合测距系统及方法,实现物体的精准识别和距离测量,用于自动驾驶场景感知系统;通过激光雷达精准定位模块实现物体的精准定位,利用光场图像目标物体检测与深度估计模块补充激光雷达无法感知到的物体的深度信息,最终结合光场‑雷达多传感器融合测距模块完成多模态传感器测距结果的有效融合。相对于传统的单模态传感器测距和雷达‑相机多传感器融合测距,本发明专利技术既解决了单目图像感知无法计算位置信息的问题,又避免了三维点云感知受激光雷达测量范围有限的局限。基于独创性的光场图像目标物体检测与深度估计方法,本发明专利技术确保了距离测量的准确性、实时性和可扩展性。

【技术实现步骤摘要】

本专利技术涉及一种基于光场图像的多传感器融合测距系统及方法,属于信息。


技术介绍

1、近年来,随着人工智能技术的快速普及,自动驾驶成为新的研究热点,它依赖于先进的传感器、计算机视觉技术、机器学习算法和深度学习算法等,通过感知周围环境、分析数据并做出相应的驾驶决策,使得交通载具能够在没有人类驾驶员的情况下自主地进行行驶和操作。自动驾驶技术的发展衍生出了许多引人注目的研究方向,包括实时建图、目标定位、场景感知、路径规划和状态控制系统等。相关的商业化进程以车辆为主,并逐渐扩展到船舶和无人机。

2、自动驾驶场景感知系统是指车辆使用各种传感器和技术来实时感知周围环境和道路条件。这些传感器和技术协同工作,收集和处理大量数据,从而检测所有障碍物,提供位置坐标以及相应的速度信息,以实现准确和全面的认知。现有的感知传感器主要分为雷达和相机两类,前者直接扫描三维点云数据实现距离测量,发射的激光波束可以穿透雨滴、云雾和一些障碍物,对于恶劣天气条件和低光照环境有更好的适应性,但是雷达的低分辨率导致对于垂直结构物体的感知能力有限;后者捕获二维图像以提供颜色和纹理信息。然本文档来自技高网...

【技术保护点】

1.一种光场图像目标物体检测与深度估计方法,其特征在于:利用光场图像独有的角度维度信息实现鲁棒的物体级深度估计,包括光场图像目标物体检测、光场图像目标物体特征点匹配和光场图像视差-深度转换步骤;实现如下:

2.根据权利要求1所述的光场图像目标物体检测与深度估计方法,其特征在于:所述光场图像目标物体特征点匹配步骤中,目标物体匹配时,对多个相邻视角图像通过设定的约束条件实现准确的粗粒度的目标物体匹配;所述约束条件为图像结构相似性、检测框规模相似性、检测框像素偏移;

3.根据权利要求1所述的光场图像目标物体检测与深度估计方法,其特征在于:所述光场图像目标物体特征点匹配步...

【技术特征摘要】

1.一种光场图像目标物体检测与深度估计方法,其特征在于:利用光场图像独有的角度维度信息实现鲁棒的物体级深度估计,包括光场图像目标物体检测、光场图像目标物体特征点匹配和光场图像视差-深度转换步骤;实现如下:

2.根据权利要求1所述的光场图像目标物体检测与深度估计方法,其特征在于:所述光场图像目标物体特征点匹配步骤中,目标物体匹配时,对多个相邻视角图像通过设定的约束条件实现准确的粗粒度的目标物体匹配;所述约束条件为图像结构相似性、检测框规模相似性、检测框像素偏移;

3.根据权利要求1所述的光场图像目标物体检测与深度估计方法,其特征在于:所述光场图像目标物体特征点匹配步骤中,目标物体特征点匹配实现如下:

4.根据权利要求1所述的光场图像目标物体检测与深度估计方法,其特征在于:所述光场图像视差-深度转换步骤中,根据光场图像目标物体特征点匹配结果计算目标物体在每个方向的子孔径图像序列之间的像素偏移,即视差,并结合光场相机内参矩阵和光场相机间距离完成视差到深度的转换,得到水平、竖直、45°和135°四个方向的深度候选,再通过权重自适应加权,最终得到物体级深度估计结果具体实现如下:

5.一种光场图像目标物体检测与深度估计系统,其特征在于,包括光场图像目标物体检测模块、光场图像目标物体特征点...

【专利技术属性】
技术研发人员:盛浩丛睿轩赵明远王暾陈荣山张莹莹
申请(专利权)人:北京航空航天大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1