一种目标物体识别和距离检测方法技术

技术编号:39511784 阅读:13 留言:0更新日期:2023-11-25 18:48
本发明专利技术提供一种目标物体识别和距离检测方法,包括无人小车车体,以及安装在车体前端的双目相机,双目相机拍摄的图片导入到

【技术实现步骤摘要】
一种目标物体识别和距离检测方法


[0001]本专利技术涉及物体识别检测
,具体涉及一种目标物体识别和距离检测方法


技术介绍

[0002]无人驾驶车辆在行驶过程中对道路周围环境的感知需要通过图像视觉检测进行识别,深度学习神经网络模型可通过较好的训练获得分辨,并识别出不同类别的物体,且模型展现出较好的性能

在一些物体检测识别技术中,通常会采用
Faster R

CNN
算法来对物体进行识别检测,该算法准确率较高,漏检率也较低,但是无人驾驶领域的应用对模型识别速度要求较高,因此该算法变的不适用,为解决上述问题,如中国专利申请号为
202111633725.0
,公布日为
2022.05.27
的专利文献,其公开了一种基于
YOLOv5
的无人车辆搭载摄像头目标检测方法
,
包括无人车本体,以及安装在无人车本体前端的摄像头;所述的摄像头采集图片,将图片进行分类预处理后,再将预处理过的图片放入到
YOLOv5
网络模型中进行训练处理,训练过程中模型会对训练集中的图像特征点进行提取,经过多次迭代,可以得到训练完成的检测模型文件,检测模型文件为
.pt
格式;处理后得到的最优异的文件检测模型部署到嵌入式等设备并应用,大大加强了
YOLO
算法对于隐蔽性强的目标的提取性能,有效地提升了识别准确率,训练效果较好,漏检率较低

[0003]但是该文献中的方法只是使用车体上的单个摄像头拍摄车体前方的路况,然后通过
YOLOv5
网络模型对图片进行预测,仅仅是对图片进行识别,并且在识别过程中并没有考虑图片的损失值然后修改模型参数,从而使得预测图片不够准确,同时在识别物体后无法测出图片中目标物体与车体之间的距离


技术实现思路

[0004]本专利技术的目的在于提供一种目标物体识别和距离检测方法,用于识别无人小车前方的目标物体,并检测两者之间的距离,为提前刹车做好准备,保证行车安全,识别准确率高

[0005]本专利技术为解决上述技术问题所采用的技术方案是:一种目标物体识别和距离检测方法,包括无人小车车体,以及安装在车体前端的双目相机,双目相机拍摄的图片;将图片放入到
YOLO
网络模型中进行处理,对目标物体进行分类识别,得到图片的识别结果,然后通过双目检测方法测出目标物体与车体之间的距离,具体包括以下步骤:(1)建立
YOLO
网络模型;(
1.1
)选择模型架构;(
1.2
)定义损失函数;(
1.3
)使用随机数初始化模型参数;(2)处理模型数据;(
2.1
)双目相机拍摄两张以上图片,并将图片中的目标物体框选出来,同时把图片
转换为适合模型的格式;(
2.2
)将步骤(
2.1
)中的图片导入
YOLO
网络模型中,通过
YOLO
网络模型来预测识别图片中的目标物体,并将目标物体对应的双目相机拍摄的图片进行对应保存;(
2.3
)利用步骤(
1.2
)中的损失函数计算导入图片数据的损失值,反向传播更新步骤(
1.3
)中的模型参数;(3)通过双目检测估算目标物体与车体之间的距离;(
3.1
)将该目标物体对应的双目相机拍摄的图片导入
Matlab
中,然后将步骤(
2.1
)中的图片在
stereo Camera Calibrator
工具箱中进行双目标定,并求出双目相机中左相机和右相机的内参数据和双目相机相对位置的数据,其中内参数据包括内参矩阵

外参数矩阵以及畸变参数,双目相机相对位置的数据包括旋转矩阵

平移向量;(
3.2
)根据步骤(
3.1
)中图片标定后获得的数据和双目相机相对位置的数据,分别对左相机和右相机中的图片进行消除畸变和共面行对准;(
3.3
)在左相机和右相机图片中,使左相机图片中的像素点匹配右相机图片中相同的对应点;(
3.4
)通过立体匹配算法对步骤(
3.3
)中匹配后的图片进行视差计算;(
3.5
)根据步骤(
3.4
)中的视差计算结果和预设双目相机的焦距

基线长度以及中心距计算出目标物体距离双目相机的距离

[0006]以上设置,通过建立
YOLO
网络模型,能够将双目相机拍摄的照片转换为恰当的格式导入模型中,然后通过模型来预测识别图片中的目标物体的类别,同时能够利用损失函数计算图片数据中的损失值,并反向传播更新模型的参数,从而能根据损失值随时调整模型的参数,确保预测的准确率,在识别出目标物体后,通过双目相机通过立体匹配之后再测出目标物体与车体之间的实际距离,从而使得测出目标物体与车体之间的实际距离更加准确,进而为车体刹车提供参考数据,为提前刹车做好准备,实现行车安全

[0007]进一步的,所述步骤(
2.2
)中还包括:(
2.2.1
)将步骤(
2.1
)导入模型的图片分割成
n*n
个模块,然后将每个模块分成多个网格,且每个网格被分配一个预测框和置信度;(
2.2.2
)计算预测框与真实框的交集面积,以及预测框与真实框的并集面积,通过两者的比例来表示置信度,然后用置信度来评判预测框的准确度,进而判断出目标物体的类别

[0008]以上设置,能够通过预测框与真实框的交集面积

预测框与真实框的并集面积两者的比例来判断图片中划分网格的置信度,然后用置信度来评判预测框的准确度,进而判断出目标物体的类别

[0009]进一步的,所述步骤(
2.3
)中还包括:通过交叉熵损失函数计算预测目标物体类别和实际目标物体类别之间的损失值,然后将损失值作为分类损失值反馈至模型中,并更新步骤(
1.3
)中的模型参数

[0010]以上设置,通过交叉熵损失函数计算类别损失差值并反馈至模型中,同时更新模型参数,能够更加准确识别出下一张图片中目标物体的类别

[0011]进一步的,所述步骤(
3.2
)中还包括:将单目相机的内参矩阵和畸变系数输入
OpenCV
图像处理函数中,通过运算分别对左相机和右相机中的图片进行畸变校正,得到消
除畸变后的图片

[0012]以上设置,通过将单目相机的内参矩阵和畸变系数输入
OpenCV
图像处理函数中本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种目标物体识别和距离检测方法,包括无人小车车体,以及安装在车体前端的双目相机,双目相机拍摄的图片;将图片放入到
YOLO
网络模型中进行处理,对目标物体进行分类识别,得到图片的识别结果,然后通过双目检测方法测出目标物体与车体之间的距离,其特征在于:包括以下步骤:(1)建立
YOLO
网络模型;(
1.1
)选择模型架构;(
1.2
)定义损失函数;(
1.3
)使用随机数初始化模型参数;(2)处理模型数据;(
2.1
)双目相机拍摄两张以上图片,并将图片中的目标物体框选出来,同时把图片转换为适合模型的格式;(
2.2
)将步骤(
2.1
)中的图片导入
YOLO
网络模型中,通过
YOLO
网络模型来预测识别图片中的目标物体;并将目标物体对应的双目相机拍摄的图片进行对应保存;(
2.3
)利用步骤(
1.2
)中的损失函数计算导入图片数据的损失值,反向传播更新步骤(
1.3
)中的模型参数;(3)通过双目检测估算目标物体与车体之间的距离;(
3.1
)将该目标物体对应的双目相机拍摄的图片导入
Matlab
中,然后将步骤(
2.1
)中的图片在
stereo Camera Calibrator
工具箱中进行双目标定,并求出双目相机中左相机和右相机的内参数据和双目相机相对位置的数据,其中内参数据包括内参矩阵

外参数矩阵以及畸变参数,双目相机相对位置的数据包括旋转矩阵

平移向量;(
3.2
)根据步骤(
3.1
)中图片标定后获得的数据和双目相机相对位置的数据,分别对左相机和右相机中的图片进行消除畸变和共面行对准;(
3.3
)在左相机和右相机图片中,使左相机图片中的像素点匹配右相机图片中相同的对应点;(
3.4
)通过立体匹配算法对步骤(
3.3
)中匹配后的图片进行视差计算;(
3.5
)根据步骤(
3.4
)中的视差计算结果和预设双目相机的焦距

基线长度以及中心距计算出目标物体距离双目相机的距离
。2.
根据权利要求1所述的一种目标物体识别和距离检测方法 ,其特征在于:所述步骤(
2.2
)中还包括:(
2.2.1
)将步骤(
2.1
)导入模型的图片分割成
n*n
个模块,然后将每个模块分成多个网格,且每个网格被分配一个预测框和置信度;(
2.2.2
)计算预测框与真实框的交集面积,以及预测框与真实框的并集面积,通过两者的比例来表示置信度,然后用置信度来评判预测框的准确度,进而判断出目标物体的类别
。3.
根据权利要求1所述的一种目标物体识别和距离检测方法 ,其特征在于:所述步骤(
2.3
)...

【专利技术属性】
技术研发人员:邓达强洪琳彬成晨陈瑶军侯家宝李铭富王司瀚
申请(专利权)人:广州城市理工学院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1