The invention discloses an unmanned driving feasible area determination device, which comprises a lidar, a camera and a first processor connected with the lidar and the camera respectively; a lidar scans the detection area to obtain the corresponding laser point cloud data; a camera collects and retrieves the data of the detection area to obtain the first 3D image; and a first processor, respectively. The laser point cloud data and the first 3D image are converted into the world coordinate system in the same coordinate system for fusion to obtain the second 3D image, and the first processor calculates the area in which the driving device can move forward based on the second 3D image. The method adopts lidar and camera modules to detect the detection area, and fuses the detection results of the two modules to obtain the second 3D image. The detection results of the two modules are mutually verified in the distance inversion between the observation point and the target, thus improving the safety of forward autopilot.
【技术实现步骤摘要】
一种无人驾驶可行驶区域确定装置及方法
本专利技术涉及自动驾驶
,尤其是涉及一种无人驾驶可行驶区域确定装置及方法。
技术介绍
自动驾驶中前向安全至关重要。摄像头、毫米波雷达是当前常用的前向传感器。如特斯拉就使用单目视觉的方案对前向的人、车、线进行感知识别,支持AutoPilot功能。激光雷达是以发射激光束探测目标的位置、速度等特征量的雷达系统。其工作原理是向目标发射探测激光束,然后将接收到的从目标反射回来的目标回波信号与发射信号进行比较,作适当处理后,就可获得前行目标的有关信息。但是,光雷达在前向探测时角度的分辨率较低,目标识别的效果较差。仅仅利用单目摄像头做深度估计,也能在一定程度上反演出包含距离信息的3D图,但是受限于算法本身,精度往往不高,而且存在误差。因此,仅仅依靠激光雷达或者摄像头确定目标的距离,其准确度不高,如自动驾驶过程中判断目标距离不准确,则容易造成意外事故,损失较大。
技术实现思路
本专利技术的目的是提供一种无人驾驶可行驶区域确定装置及方法,通过将摄像头模组和激光雷达检测的数据进行融合以获得车辆可行驶的区域,可以提高对前向距离的准确度,提高了自动驾驶的安全性。为解决上述问题,本专利技术的第一方面提供了一种无人驾驶可行驶区域确定装置,包括激光雷达、摄像头和分别与激光雷达和摄像头连接的第一处理器;激光雷达,对检测区进行扫描,得到相应的激光点云数据;摄像头,采集检测区的数据并进行反演,得到第一3D图像;第一处理器,分别将激光点云数据和第一3D图像转换到同一坐标系下的世界坐标系中进行融合以获得第二3D图像;且第一处理器基于所述第二3D图像计算行驶 ...
【技术保护点】
1.一种无人驾驶可行驶区域确定装置,其特征在于,包括:激光雷达、摄像头和分别与所述激光雷达和摄像头连接的第一处理器;激光雷达,对检测区进行扫描,得到相应的激光点云数据;摄像头,采集检测区的数据并进行反演,得到第一3D图像;第一处理器,分别将所述激光点云数据和所述第一3D图像转换到同一坐标系下的世界坐标系中进行融合以获得第二3D图像;且所述第一处理器基于所述第二3D图像计算行驶设备可向前行驶的区域。
【技术特征摘要】
1.一种无人驾驶可行驶区域确定装置,其特征在于,包括:激光雷达、摄像头和分别与所述激光雷达和摄像头连接的第一处理器;激光雷达,对检测区进行扫描,得到相应的激光点云数据;摄像头,采集检测区的数据并进行反演,得到第一3D图像;第一处理器,分别将所述激光点云数据和所述第一3D图像转换到同一坐标系下的世界坐标系中进行融合以获得第二3D图像;且所述第一处理器基于所述第二3D图像计算行驶设备可向前行驶的区域。2.根据权利要求1所述的装置,其特征在于,所述第一处理器包括第一融合模块;所述第一融合模块获取所述第一3D图像中检测区每个目标与所述摄像头观测点的距离A;所述第一融合模块获取所述激光点云数据中的检测区每个目标与所述激光雷达观测点的距离B;所述第一融合模块,对所述距离A和所述距离B进行融合获得第二3D图像,所述第二3D图像包括每个目标与所述行驶设备的距离C。3.根据权利要求2所述的装置,其特征在于,所述第一融合模块还用于,计算所述距离A和所述距离B是否一致;若所述距离A和所述距离B不一致,则将所述距离A和所述距离B分别与其预设的加权系数相乘后并加和,获得所述距离C;若所述距离A和所述距离B一致,则所述距离C的值为距离B的值。4.根据权利要求3所述的装置,其特征在于,若所述距离A与所述距离B的差的绝对值大于或等于所述距离B的20%,则确定所述距离A和所述距离B不一致;或者,若所述距离A与所述距离B的比值为0.8~1.2,则确定所述距离A和所述距离B一致。5.根据权利要求3所述的装置,其特征在于,所述距离A的加权系数高于所述距离B的加权系数。6.根据权利要求1-5任一项所述的装置,其特征在于,所述第一处理器还包括第二融合模块;第二融合模块对所述第一3D图像进行目标检测,获得第一目标数据,所述第一目标数据包括被检测区的目标数量和每个目标与所述摄像头的距离;第二融合模块对所述第二3D图像进行聚类目标检测,获得第二目标数据,所述第二目标数据包括被检测区的目标数量和每个目标与当前行驶设备的距离;所述第二融合模块对所述第一目标数据和所述第二目标数据进行融合,获得第三目标数据。7.根据权利要求6所述的装置,其特征在于,所述第一处理器基于所述第二3D图像和所述第三目标数据计算行驶设备可向前行驶的区域。8.根据权利要求6所述的装置,其特征在于,所述第二融合模块对所述第一目标数据和所述第二目标数据进行“或运算”获得第三目标数据。9.根据权利要求1所述的装置,其特征在于,所述摄像头为两个摄像头,位于所述激光雷达的两侧。10.根据权利要...
【专利技术属性】
技术研发人员:陈炯,蔡云跃,章健勇,
申请(专利权)人:上海蔚来汽车有限公司,
类型:发明
国别省市:上海,31
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。