一种复杂环境下目标的自跟随方法及系统技术方案

技术编号:37821945 阅读:32 留言:0更新日期:2023-06-09 09:58
本发明专利技术公开了一种复杂环境下目标的自跟随方法,包括:实时获取跟踪目标在图像中的位置变化,使用目标检测算法识别出图像中的跟踪目标,并使用目标框将跟踪目标框出;根据目标框的位置信息,得到车辆跟踪所需的速度和转向角度;将实时图像中目标框的位置信息与上一帧图像中目标框的位置信息进行比较,得到备选目标;判断跟踪过程中跟踪目标是否丢失,若丢失,则将备选目标作为跟踪目标;还公开了一种复杂环境下目标的自跟随系统,包括:图像采集模块、跟踪目标识别模块、备选目标生成模块、备选目标选定模块、跟随控制器。本发明专利技术可以避免在人流量大、被遮挡、复杂环境中出现目标跟踪丢失或误跟的情况,大大地提高了跟踪的稳定性。大大地提高了跟踪的稳定性。大大地提高了跟踪的稳定性。

【技术实现步骤摘要】
一种复杂环境下目标的自跟随方法及系统


[0001]本专利技术涉及计算机视觉
,具体涉及一种复杂环境下目标的自跟随方法及系统。

技术介绍

[0002]随着经济的发展和人力成本的提高,目前城市主干道的清洁普遍实现了机械化自动作业,在道路清洁的过程中通常使用自动清扫车对路面进行清扫。自动清扫车作为环卫设备之一,集路面清扫、垃圾回收和运输等功能为一体,具有省时省力、清扫高效、干净等优点,可以广泛适用于城市街道、工业园区、人行道等道路的清扫作业。
[0003]自动清扫车集自主清扫、自主避障、智能感知于一体,其主要依靠在常规清扫车上加装传感器,实现无人自动清扫、探测绕行障碍物、避让行人或移动物体,并在结束清扫后,自动到指定地点倾倒垃圾、驶回泊位等功能。相对于一般的人力清扫设备,自动清扫车的机身融合了摄像头、激光雷达、超声波等传感器,能够对周围环境进行感知和理解,实现实时扫描定位,并且能适应各种地形,遇到障碍物可进行精准识别并自动绕障,实现环卫作业全程无人化。
[0004]目前,自动清扫车的传感器大多使用UWB或超声波技术的传感器,其受环境因素的影响大,在人流量大、设备被遮挡等情况下,容易出现跟踪目标丢失的现象,跟踪效果不稳定。为提高自动清扫车跟踪效果的稳定性,也有的传感器使用多线激光雷达,多线激光雷达可以有效避免环境光与强日光的干扰,在室内外均能稳定使用,但其存在设备成本高,在复杂环境中,容易出现目标丢失导致误跟的情况出现,跟踪的稳定性仍有待提高。
[0005]因此,本领域需要一种新的环境感知方案来解决上述问题。

技术实现思路

[0006]本专利技术的目的在于克服以上所述现有技术的不足,提供一种复杂环境下目标的自跟随方法及系统。
[0007]为实现上述目的,本专利技术采用以下技术方案:
[0008]一种复杂环境下目标的自跟随方法,包括:
[0009]实时获取跟踪目标在图像中的位置变化,使用目标检测算法识别出图像中的跟踪目标,并使用目标框将跟踪目标框出;
[0010]根据目标框的位置信息,得到车辆跟踪所需的速度和转向角度;
[0011]将实时图像中目标框的位置信息与上一帧图像中目标框的位置信息进行比较,得到备选目标;
[0012]判断跟踪过程中跟踪目标是否丢失,若丢失,则将备选目标作为跟踪目标。
[0013]进一步地,使用YOLO目标检测算法识别图像中的跟踪目标,当图像中存在一个跟踪目标时,目标框的左上坐标点为A1(x1,y1),右下角坐标点为B1(x1,y1);当图像中存在多个跟踪目标时,各个目标框的左上坐标点分别为A1(x1,y1)、A2(x2,y2)
……
An(x
n
,y
n
),右下
角坐标点分别为为B1(x1,y1)、B2(x2,y2)
……
Bn(x
n
,y
n
)。
[0014]进一步地,识别图像中跟踪目标的具体方法如下:
[0015]设定跟踪目标的检测帧数为N
frame
,对每个跟踪目标计算一个得分Min
score

[0016]Min
score
=Dis
Mid
/Time,
[0017]其中,Dis
Mid
=Dis
Mid
+Dis
Now
,Dis
Mid
=1/2*Width,Time=Time+1,Dis
Now
=|x
n1

x
n2
|;
[0018]其中,Dis
Mid
为目标框距离图像中心位置的初始距离,Width为图像的宽度,x
n
为各目标框的坐标点,Time为跟踪目标的出现次数,Dis
Now
为目标框距离图像中心位置的实时距离;
[0019]当图像的帧数不大于检测帧数N
frame
时,得分Min
score
最小值对应的目标框为跟踪目标。
[0020]进一步地,当图像的帧数小于检测帧数N
frame
,若当前图像没有检测到新目标,则计算当前检测到目标的得分;
[0021]若当前图像中的目标增加,判断当前目标是否出现过,若未出现过,则将目标数据添加到检测的数组中,计算新目标的得分;
[0022]对选取的目标数据进行筛除,将Dis
Base
≤Dis
tol
的目标数据放入检测数组中计算当前检测到目标的得分,其中,Dis
Base
=Hight

y2,Dis
Base
为目标框距离图像最底边的距离,Hight为图像的高度,Dis
tol
为目标框距离图像中心的距离容差,y2为当前目标框右下角的y坐标值。
[0023]进一步地,当图像的帧数等于N
frame
时,则遍历上述检测数组,找到目标得分Min
score
最小值的目标,即为跟踪目标。
[0024]进一步地,当图像的帧数大于N
frame
时,实时计算Dis
Base
、Dis
Mid
,得到目标框的位置信息,并反馈至车辆控制器,得到车辆跟踪所需的速度和转向角度。
[0025]进一步地,判断跟踪过程中跟踪目标是否丢失的具体方法如下:
[0026]在跟随过程中,计算图像中目标框某一点坐标与上一帧的差值Dis
diff
,式中,x
obj1
、x
obj2
、y
obj1
、y
obj2
为两帧图像目标框某一点的坐标值,若Dis
diff
小于等于Dis
tol
,则判断跟踪目标发生丢失。
[0027]进一步地,备选目标选定的具体方法如下:
[0028]计算实时图像中目标框左上角坐标与上一帧图像中目标框左上角坐标的差值Dis
diff
,式中,x
obj
、x
alter
、y
obj
、y
alter
为前后两帧图像目标框左上角的坐标值,Dis
diff
差值最小的备选目标框;
[0029]获取实时目标框中心位置的深度信息值Depth
obj
和备选目标框中心位置的深度信息值Depth
alter
,并计算两者的差值Depth
diff
,Depth
diff
=|Depth
obj

Depth
alter
|,当Depth
diff
与Dis
di本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种复杂环境下目标的自跟随方法,其特征在于,包括:实时获取跟踪目标在图像中的位置变化,使用目标检测算法识别出图像中的跟踪目标,并使用目标框将跟踪目标框出;根据目标框的位置信息,得到车辆跟踪所需的速度和转向角度;将实时图像中目标框的位置信息与上一帧图像中目标框的位置信息进行比较,得到备选目标;判断跟踪过程中跟踪目标是否丢失,若丢失,则将备选目标作为跟踪目标。2.如权利要求1所述的一种复杂环境下目标的自跟随方法,其特征在于,使用YOLO目标检测算法识别图像中的跟踪目标,当图像中存在一个跟踪目标时,目标框的左上坐标点为A1(x1,y1),右下角坐标点为B1(x1,y1);当图像中存在多个跟踪目标时,各个目标框的左上坐标点分别为A1(x1,y1)、A2(x2,y2)
……
An(x
n
,y
n
),右下角坐标点分别为为B1(x1,y1)、B2(x2,y2)
……
Bn(x
n
,y
n
)。3.如权利要求2所述的一种复杂环境下目标的自跟随方法,其特征在于,识别图像中跟踪目标的具体方法如下:设定跟踪目标的检测帧数为N
frame
,对每个跟踪目标计算一个得分Min
score
,Min
score
=Dis
Mid
/Time,其中,Dis
Mid
=Dis
Mid
+Dis
Now
,Dis
Mid
=1/2*Width,Time=Time+1,Dis
Now
=|x
n1

x
n2
|;其中,Dis
Mid
为目标框距离图像中心位置的初始距离,Width为图像的宽度,x
n
为各目标框的坐标点,Time为跟踪目标的出现次数,Dis
Now
为目标框距离图像中心位置的实时距离;当图像的帧数不大于检测帧数N
frame
时,得分Min
score
最小值对应的目标框为跟踪目标。4.如权利要求3所述的一种复杂环境下目标的自跟随方法,其特征在于,当图像的帧数小于检测帧数N
frame
,若当前图像没有检测到新目标,则计算当前检测到目标的得分;若当前图像中的目标增加,判断当前目标是否出现过,若未出现过,则将目标数据添加到检测的数组中,计算新目标的得分;对选取的目标数据进行筛除,将Dis
Base
≤Dis
tol
的目标数据放入检测数组中计算当前检测到目标的得分,其中,Dis
Base
=Hight

y2,Dis
Base
为目标框距...

【专利技术属性】
技术研发人员:田昊华邹键杨铭智李凯腾张锦韩锋钢陈都林铭忠
申请(专利权)人:厦门威迪思汽车设计服务有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1