【技术实现步骤摘要】
两车测距方法、测距设备、系统及计算机可读存储介质
[0001]本专利技术涉及数字图像处理的
,具体而言,涉及一种两车测距方法、测距设备、系统及计算机可读存储介质。
技术介绍
[0002]图像处理是无人驾驶技术中极其重要的一部分,无人驾驶设备通过图像处理结果来进行控制、事件处理等动作。目标检测作为图像处理中的重要一环,其任务是找出图像中所有感兴趣的目标,确定他们的位置和大小。目前基于双目相机目标检测定位方法有传统目标检测和深度学习目标检测方法。
[0003]传统目标检测方法分为三部分:区域选择、特征提取、分类器;深度学习目标检测分为两类,一类是two stage的方法,另一类是one stage的方法。但是,在无人农业生产中,通常有两辆及以上的无人车辆相互配合工作的情况,如收获车和转粮车,若使用现有的目标检测方法以及GPS定位方法无法准确获知配合工作的两个车辆之间的距离是否合适,导致控制效果较差。
技术实现思路
[0004]有鉴于此,本专利技术的目的在于提供一种两车测距方法、测距设备、系统及计算机可读存储介质,其能够改善现有的目标检测方法无法获知配合工作的两个车辆之间的距离是否合适,而导致控制效果差的问题。
[0005]第一方面,本专利技术提供一种两车测距方法,采用如下的技术方案。
[0006]一种两车测距方法,应用于测距设备,所述测距设备上搭载有双目相机,所述测距设备设置于第一车辆,所述第一车辆与第二车辆配合工作,所述方法包括:
[0007]实时获取所述双目相机拍 ...
【技术保护点】
【技术特征摘要】
1.一种两车测距方法,其特征在于,应用于测距设备,所述测距设备上搭载有双目相机,所述测距设备设置于第一车辆,所述第一车辆与第二车辆配合工作,所述方法包括:实时获取所述双目相机拍摄的所述第二车辆的字符图像;获取所述字符图像的点云图;计算出所述点云图的中心坐标,并根据所述中心坐标计算出所述第一车辆和所述第二车辆之间的车距。2.根据权利要求1所述的两车测距方法,其特征在于,所述获取所述字符图像的点云图的步骤,包括:采用目标检测网络模型检测所述字符图像中字符的位置,得到所述字符的坐标信息,根据所述坐标信息得到字符区域;截取所述字符区域的RGB图和深度图,并根据所述RGB图和所述深度图生成点云图。3.根据权利要求2所述的两车测距方法,其特征在于,所述目标检测网络模型包括Yolov5网络模型,所述采用目标检测网络模型检测所述字符图像中字符的位置,得到所述字符的坐标信息,根据所述坐标信息得到字符区域的步骤,包括:将所述字符图像分割成包括S*S个单元格的网格;基于每个所述单元格预测中心点落在该单元格内的字符的多个边界框,得到每个所述边界框的预测值,所述预测值包括坐标信息和置信度;基于所述置信度,根据所有所述边界框的预测值确定出目标坐标信息;根据所述目标坐标信息,得到角坐标,以根据所述角坐标确定字符区域。4.根据权利要求3所述的两车测距方法,其特征在于,所述基于所述置信度,根据所有所述边界框的预测值确定出目标坐标信息的步骤,包括:将所有所述边界框的置信度进行比较,将置信度最大的边界框确定为比较框;采用交并比损失函数,依次计算出所述比较框与剩余的所述边界框的交并比值;将每个所述交并比值与预设阈值进行比较,若无所述交并比值大于所述预设阈值,则将所述比较框的坐标信息作为目标坐标信息;否则,将所述比较框剔除,并在剩余所述边界框中确定出新的比较框,直至得到目标坐标信息。5.根据权利要求3所述的两车测距方法,其特征在于,所述根据所述目标坐标信息,得到角坐标的步骤,包括:基于所述目标坐标信息,采用坐标计算公式,得到角坐标,所述角坐标包括左上角坐标(u0,v0)、右上角坐标(u1,v1)、右下角坐标(u2,v2)和左下角坐标(u3,v3);所述坐标计算公式包括:
其中,(x,y,w,h)为目标坐标信息,x表示字符区域中心点的横坐标,y表示字符区域中心点的纵坐标,w表示字符区域的宽度,h表示字符区域的高度。6.根据权利要求2所述的两车测距方法,其特征在于,所述根据所述RGB图和所述深度图生成点云图的步骤,包括:根据所述RGB图得到像素坐标,根据所述深度图得到深度数据;基于所述像素坐标和所述深度数据,结合所述双目相机参数,采用空间点坐标计算公式,得到空间点坐标;根据所述空间点坐标生成点云图;所述空间点坐标计算公式包括:其中,c
x
为双目相机横轴上的光圈中心,c
y
【专利技术属性】
技术研发人员:董秀,孔繁诚,詹正,黄茂达,
申请(专利权)人:广东皓耘科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。