一种基于交通视频的车辆持续跟踪方法技术

技术编号:24941089 阅读:24 留言:0更新日期:2020-07-17 21:37
本发明专利技术公开了一种智能交通系统中基于交通视频的车辆检测和持续跟踪方法,属于计算机视觉和智能交通信息技术领域。本发明专利技术所述方法改进传统粒子滤波框架,加入中值滤波和多特征融合;在提取边缘特征前,利用中值滤波对视频进行去噪,降低环境光线及噪声对视频图像的影响;采用Canny边缘检测算法进行边缘检测,实现车辆分离;利用颜色和边缘的融合特征对车辆进行跟踪;引入判决机制,通过比较巴氏距离与设置阈值的大小,判断是否将均值偏移聚类引入至粒子滤波框架中。

【技术实现步骤摘要】
一种基于交通视频的车辆持续跟踪方法
本专利技术属于计算机视觉和智能交通信息
,具体涉及一种智能交通系统中基于交通视频的车辆检测和持续跟踪方法。
技术介绍
随着生活水平提高、交通建设加强,各种出行工具越来越多地被应用到日常生活中,交通工具数量和种类的迅速增多为日常监管带来了巨大压力,智能交通系统的发展成为大势所趋。通过车辆跟踪可得到车辆的速度、方向以及运动轨迹,这对在智能交通中实现车辆目标的确定至关重要。但由于跟踪过程中存在车辆高速运动、车辆相互遮挡以及雨雪天气等复杂场景,车辆跟踪的效果往往受到影响。因此为了提高车辆跟踪的准确性、稳定性以及实时性,本专利技术融合均值偏移聚类和粒子滤波车辆跟踪算法,提出一种基于交通视频的车辆持续跟踪方法。
技术实现思路
本专利技术的目的是解决在高速运动、存在遮挡以及雨雪天气等复杂场景中车辆跟踪效果不佳的问题,提供一种基于交通视频的车辆持续跟踪方法,以提高车辆跟踪的准确性、稳定性以及实时性。本专利技术所提出的技术问题是这样解决的:一种基于交通视频的车辆持续跟踪方法,包括以下步骤:步骤1.在输入视频中选取车辆目标区域;步骤2.将车辆目标区域的图像由RGB颜色空间转化为HSV空间;步骤3.对图像进行灰度化处理,利用中值滤波对灰度图像进行去噪处理,然后利用canny边缘检测算子提取边缘特征;步骤4.计算车辆目标区域颜色和边缘直方图模型,计算候选目标区域颜色模型;令车辆目标区域中心点坐标为x=(x0,y0),其中x0为横坐标,y0为纵坐标,在车辆目标区域的颜色直方图模型表示为:其中,u为直方图中颜色等级索引,1≤u≤m,m为灰度级;xi为车辆目标区域的第i个像素点,1≤i≤Ns,Ns为车辆目标区域内像素点的总数;δ为Kroneckerdelta函数;h(xi)为第i个像素点对应的颜色直方图条柱;k为核函数,用于分配目标区域内像素的加权函数,sx和sy分别是车辆目标区域的长度和宽度,C为归一化系数,||||表示求向量的模;令候选目标区域中心坐标为y=(x1,y1),其中x1为横坐标,y1为纵坐标,在候选目标区域的颜色直方图模型表示为:车辆目标区域的边缘方向直方图模型表示为:候选目标区域的边缘方向直方图模型表示为:步骤5.分别计算两个颜色直方图模型之间和两个边缘直方图模型之间的巴氏距离;候选目标区域颜色直方图模型和车辆目标区域颜色直方图模型之间的巴氏距离为:候选目标区域的边缘方向直方图模型和车辆目标区域的边缘方向直方图模型之间的巴氏距离为:步骤6.比较dcolor与巴氏距离阈值T大小;情形1.若dcolor≥T,采用基于中值滤波和多特征融合的粒子滤波跟踪算法,更新粒子权值;车辆目标区域颜色和边缘特征的观测似然函数:其中,α为粒子颜色特征在目标区域的联合似然函数中的融合系数,β为粒子边缘特征在目标区域的联合似然函数中的融合系数,σcolor为颜色直方图对应的噪声方差,σedge为比半圆直方图对应的噪声方差;更新粒子权值为:wi'=wip其中,wi为当前粒子权值,wi'为更新后的粒子权值;令wi=wi';情形2.当BH<T时,进行均值偏移聚类,得到新的粒子集,更新粒子权值;采用均值偏移算法寻找概率密度的局部极值,通过均值偏移迭代计算找到与车辆目标区域间具有最大巴氏系数的候选目标区域;当y=y'时,巴氏系数取得最大值:其中,wi为当前粒子权值,k'表示求核函数的一阶微分;当||y'-x||<ε时,进行下一步,ε为精确度;否则,令x=y',利用上式迭代计算y',直至满足||y'-x||<ε;更新粒子权值为:其中,wi'为更新后的粒子权值;令wi=wi';步骤7.权值归一化,确定跟踪目标中心;权值归一化:其中,为归一化后的权值;取最大权值对应的粒子为跟踪目标中心;步骤8.粒子重采样,得到Ns个新的粒子,转至步骤4,直至视频结束。本专利技术的有益效果是:本专利技术融合均值偏移聚类和粒子滤波车辆跟踪算法,并对已有框架进行了改进,有效提高了车辆跟踪的准确性、稳定性以及实时性。与基于单一颜色特征的粒子滤波算法不同,本方案使用中值滤波及多特征融合,提高了粒子滤波算法在复杂场景中的鲁棒性。同时,采用canny算子进行图像边缘提取,相比常用的sobel、roberts、log算子,其阈值可以由人工给定,去噪效果好,且边缘信息保留和连接都更理想,能更精准地检测车辆轮廓。此外,本方案引入判决机制,使用均值偏移和粒子滤波两种算法,综合了二者优点,既具有粒子滤波在复杂场景下也能准确跟踪的特性,又通过均值偏移提高了运行速度,保障了跟踪的实时性。具体实施方式下面结合实施例对本专利技术进行进一步的说明。本实施例提供一种基于交通视频的车辆持续跟踪方法,包括以下步骤:步骤1.在输入视频中选取车辆目标区域;步骤2.将车辆目标区域的图像由RGB颜色空间转化为HSV空间;步骤3.对图像进行灰度化处理,利用中值滤波对灰度图像进行去噪处理,然后利用canny边缘检测算子提取边缘特征;canny边缘检测算子融合了轮廓之间的连接信息,对检测算子获取的边缘结果进行了一定的筛选。首先对x、y两个方向求导,求出每个点的近似梯度,再计算像素梯度幅值和方向,最后对梯度幅值进行非极大值抑制,避免滤波使图像细节假轮廓或噪声过于增,得到较清晰的车辆轮廓。步骤4.计算车辆目标区域颜色和边缘直方图,并计算候选目标区域颜色模型;令车辆目标区域中心点坐标为x=(x0,y0),其中x0为横坐标,y0为纵坐标,在车辆目标区域的颜色直方图模型表示为:其中,u为直方图中颜色等级索引,1≤u≤m,m为灰度级;xi为车辆目标区域的第i个像素点,1≤i≤Ns,Ns为车辆目标区域内像素点的总数;δ为Kroneckerdelta函数;h(xi)为第i个像素点对应的颜色直方图条柱;k为核函数,用于分配目标区域内像素的加权函数,sx和sy分别是车辆目标区域的长度和宽度,C为归一化系数,||||表示求向量的模;令候选目标区域中心坐标为y=(x1,y1),其中x1为横坐标,y1为纵坐标,在候选目标区域的颜色直方图模型表示为:车辆目标区域的边缘方向直方图模型表示为:候选目标区域的边缘方向直方图模型表示为:步骤5.分别计算两个颜色直方图模型之间和两个边缘直方图模型之间的巴氏距离;候选目标区域颜色直方图模型和车辆目标区域颜色直方图模型之间的巴氏距离为:候选目标区域的边缘方向直方图模型和车辆目标区域的边缘方向直方图模型之间的巴氏距离为:步骤6.巴氏距离越大,目标模板与候选目标区域的相似度越小。反之,本文档来自技高网...

【技术保护点】
1.一种基于交通视频的车辆持续跟踪方法,其特征在于,包括以下步骤:/n步骤1.在输入视频中选取车辆目标区域;/n步骤2.将车辆目标区域的图像由RGB颜色空间转化为HSV空间;/n步骤3.对图像进行灰度化处理,利用中值滤波对灰度图像进行去噪处理,然后利用canny边缘检测算子提取边缘特征;/n步骤4.计算车辆目标区域颜色和边缘直方图模型,计算候选目标区域颜色模型;/n令车辆目标区域中心点坐标为x=(x

【技术特征摘要】
1.一种基于交通视频的车辆持续跟踪方法,其特征在于,包括以下步骤:
步骤1.在输入视频中选取车辆目标区域;
步骤2.将车辆目标区域的图像由RGB颜色空间转化为HSV空间;
步骤3.对图像进行灰度化处理,利用中值滤波对灰度图像进行去噪处理,然后利用canny边缘检测算子提取边缘特征;
步骤4.计算车辆目标区域颜色和边缘直方图模型,计算候选目标区域颜色模型;
令车辆目标区域中心点坐标为x=(x0,y0),其中x0为横坐标,y0为纵坐标,在车辆目标区域的颜色直方图模型表示为:



其中,u为直方图中颜色等级索引,1≤u≤m,m为灰度级;xi为车辆目标区域的第i个像素点,1≤i≤Ns,Ns为车辆目标区域内像素点的总数;δ为Kroneckerdelta函数;h(xi)为第i个像素点对应的颜色直方图条柱;k为核函数,用于分配目标区域内像素的加权函数,sx和sy分别是车辆目标区域的长度和宽度,C为归一化系数,表示求向量的模;
令候选目标区域中心坐标为y=(x1,y1),其中x1为横坐标,y1为纵坐标,在候选目标区域的颜色直方图模型表示为:



车辆目标区域的边缘方向直方图模型表示为:



候选目标区域的边缘方向直方图模型表示为:



步骤5.分别计算两个颜色直方图模型之间和两个边缘直方图模型之间的巴氏距离;
候选目标区域颜色直方图模型和车辆目标区域颜色直方图模型之间的巴氏距离为:



候选目标区域的边缘方向直方图模型和车辆目标区域的边...

【专利技术属性】
技术研发人员:张民刘祎樊佘春东胡四泉
申请(专利权)人:电子科技大学
类型:发明
国别省市:四川;51

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1