一种基于子空间特征的多任务学习目标跟踪方法技术

技术编号:12017591 阅读:77 留言:0更新日期:2015-09-09 13:49
本发明专利技术涉及一种基于子空间特征的多任务学习目标跟踪方法,充分利用子空间和稀疏重建在目标外观建模方面的优势,将l1算法引入到子空间中,借助多任务学习(MTT)的方法来挖掘各个粒子之间的相互关系。构造字典时不再采用图像模板,而是利用PCA的特征子空间构成,并加入琐碎模板以重建噪声。将每一个粒子稀疏表达系数的求解看作是MTT中的一个单任务学习问题,通过施加常用的混合范数l2,1来联合求解所有粒子的稀疏表示系数,并借助Accelerated Proximal Gradient(APG)方法来进行多任务稀疏表示的求解。相较于l1跟踪的方法,MTT方法通过挖掘粒子之间的相关性来提高跟踪效果和降低跟踪的计算复杂度。

【技术实现步骤摘要】

本专利技术属于计算机数据图像处理技术,具体涉及一种基于子空间特征的多任务学习目标跟踪方法
技术介绍
目标跟踪算法有着广阔的应用场景。在智能视频监控、智能交通、机器人视觉、视频索引等领域都起着重要的作用。此外,目标跟踪在人工智能、内容检索、精确制导、人机交互、医疗诊断等领域都得到了广泛的研究和运用。尽管目标跟踪算法的研究已经进行了很多年,但此领域仍然存在着许多困难和挑战。目标跟踪仍是计算机视觉领域中的热点问题之一。目前,仍然没有一个良好的算法能够较好地全面处理目标跟踪领域的问题。近年来,基于各种子空间的外观模型得到了学者们的广泛研究。一种是基于增量PCA子空间的目标跟踪算法,另一种是基于稀疏表示的目标跟踪算法,即l1最小化跟踪。基于增量PCA子空间的目标跟踪算法,通过在线更新可以有效的解决目标较大外观变化和长时间跟踪导致的漂移问题,然而对部分遮挡却很敏感。稀疏表示方法将目标在一个字典上进行稀疏线性表示,这个字典可以实时在线更新,以反映目标的外观变化。这种表示方法已经被实验证明对于目标的部分遮挡比较有效,会提升目标跟踪的效果。然而,稀疏表示方法在每一帧图像上会进行大量的l1优化,这导致计算量比较大。同时,在粒子滤波的框架下,计算量会随着粒子数目的增多而线性增加。最近,一些学者提出来的一些加速l1优化求解的方法被应用到目标跟踪中,但这类方法都是假设各个粒子之间的稀疏表示过程是相互独立的,忽略粒子之间的关系容易导致目标的漂移,尤其是当目标在外观有显著变化时。此外这些算法主要采用图像模板作为字典,从而使得超完备字典的维数很高,计算量大,而且图像原始灰度特征容易受光照以及相似背景等影响。
技术实现思路
要解决的技术问题为了避免现有技术的不足之处,本专利技术提出一种基于子空间特征的多任务学习目标跟踪方法。技术方案一种基于子空间特征的多任务学习目标跟踪方法,其特征在于步骤如下:步骤1:读取第一帧图像数据以及目标块在第一帧图像中的参数[x,y,w,h],在目标周围根据高斯分布随机产生m个粒子点,并记录其坐标(xi,yi),i=1,2,L,m;每个粒子代表了一个目标样本;其中:x,y表示目标中心的横纵坐标,w,h表示目标的宽和高;步骤2:采用仿射变换将每个目标样本区域规划到一个M×N的标准图像块z∈RM×N;步骤3:对每个目标样本使用增量PCA算法,提取每个目标样本的视觉特征表示向量ui;步骤4:将所有目标样本对应的列向量ui组合到一起为D=[u1,u2,L,um],引入琐碎模板Id∈Rd×d实现重构噪声和遮挡,构成一个大小为d×(m+d)维的字典V=[D Id];其中:Id为单位矩阵;步骤5:读取下一帧图像,在上一帧图像的目标块周围随机选取n个粒子点,记录粒子点坐标(xk,yk)k=1,2,L,n;每个粒子点代表了一个候选目标,每个粒子点按步骤2的特征表示方法得到一个列向量yi;步骤6:将所有待选目标粒子对应的向量组合在一起得到矩阵Y=[y1,y2,...,yn],利用字典表示为:Y=DtIdZE⇒Y=BC]]>根据minC||Y-BC||F2+λ||C||2,1,]]>求解得到系数C=ZE;]]>其中:λ是联合稀疏正则项和可靠重建项之间的平衡系数;||Ci||2是Ci的l2范数,Ci是矩阵C的第i行;步骤7:对步骤5产生的n个候选目标,计算每个候选目标的重构误差以其中重构误差最小的粒子[x,y,w,h]作为目标跟踪的结果;判断是否处理完所有图像序列的所有帧,若没有,则转到步骤4继续;若处理完,则跟踪结束。有益效果本专利技术提出的一种基于子空间特征的多任务学习目标跟踪方法,充分利用子空间和稀疏重建在目标外观建模方面的优势,将l1算法引入到子空间中,借助多任务学习(MTT)的方法来挖掘各个粒子之间的相互关系。构造字典时不再采用图像模板,而是利用PCA的特征子空间构成,并加入琐碎模板以重建噪声。将每一个粒子稀疏表达系数的求解看作是MTT中的一个单任务学习问题,通过施加常用的混合范数l2,1来联合求解所有粒子的稀疏表示系数,并借助Accelerated Proximal Gradient(APG)方法来进行多任务稀疏表示的求解。相较于l1跟踪的方法,MTT方法通过挖掘粒子之间的相关性来提高跟踪效果和降低跟踪的计算复杂度。本专利技术在子空间的基础上,在特征子空间上构造字典,计算量大大减小,引入琐碎模板解决了遮挡问题,同时能够更加有效地表示目标,克服了光照变化、尺度变化等问题。在稀疏表示框架下,引入多任务学习方法,充分挖掘粒子之间的相互关系,实现了红外目标的快速鲁棒跟踪。附图说明图1本专利技术方法的流程图具体实施方式现结合实施例、附图对本专利技术作进一步描述:本专利技术在第一帧目标确定的基础上,首先采用PCA子空间特征表示方法进行目标表示,并引入琐碎模板构造用于稀疏表示的字典。其次,对粒子滤波方法产生的候选目标,进行联合稀疏表示,求解得到表示系数。最后,选取其中重构误差最小的候选目标作为跟踪结果。具体如下步骤如下,流程可参考附图。1)读取第一帧图像数据以及目标块在第一帧图像中的参数[x,y,w,h],在目标周围根据高斯分布随机选取m个粒子点(m取600),并记录其坐标(xi,yi)i=1,2,L,m,每个粒子代表了一个目标样本,其中x,y表示目标中心的横纵坐标,w,h表示目标的宽和高。2)对前10帧序列图像,使用粒子滤波跟踪算法,使用跟踪到的目标外观模型初始化子空间。3)对所有的候选粒子点进行仿射变换将目标区域规划到一个M×N(32×32)的标准图像块z∈RM×N。4)对步骤3)产生的每个目标样本z∈RM×N,使用增量PCA算法,提取其视觉特征表示向量ui(主分量个数取16)。5)将所有粒子对应的列向量ui组合到一起即D=[u1,u2,L,um],为重构噪声和遮挡引入琐碎模板Id∈Rd×d(Id为单位矩阵),构成了一个大小为d×(m+d)维的目标特征模板(字典)V=[D Id]。6)读取下一帧图像,在上一帧图像目标周围随机产生n个粒子点,记录其坐标(xk,yk),k=1,2,L,n。每个粒子点代表了一个候选目标,每个粒子点按步骤3的特征表示方法可以得到一个列向量yi。7)将所有待选目标粒子对应的向量组合在一起得到矩阵Y=[y1,y2,...,yn],利用目标特征模板(字典)进行表示,即:Y本文档来自技高网
...
一种基于子空间特征的多任务学习目标跟踪方法

【技术保护点】
一种基于子空间特征的多任务学习目标跟踪方法,其特征在于步骤如下:步骤1:读取第一帧图像数据以及目标块在第一帧图像中的参数[x,y,w,h],在目标周围根据高斯分布随机产生m个粒子点,并记录其坐标(xi,yi),i=1,2,L,m;每个粒子代表了一个目标样本;其中:x,y表示目标中心的横纵坐标,w,h表示目标的宽和高;步骤2:采用仿射变换将每个目标样本区域规划到一个M×N的标准图像块z∈RM×N;步骤3:对每个目标样本使用增量PCA算法,提取每个目标样本的视觉特征表示向量ui;步骤4:将所有目标样本对应的列向量ui组合到一起为D=[u1,u2,L,um],引入琐碎模板Id∈Rd×d实现重构噪声和遮挡,构成一个大小为d×(m+d)维的字典V=[D Id];其中:Id为单位矩阵;步骤5:读取下一帧图像,在上一帧图像的目标块周围随机选取n个粒子点,记录粒子点坐标(xk,yk)k=1,2,L,n;每个粒子点代表了一个候选目标,每个粒子点按步骤2的特征表示方法得到一个列向量yi;步骤6:将所有待选目标粒子对应的向量组合在一起得到矩阵Y=[y1,y2,...,yn],利用字典表示为:Y=DtIdZE⇒Y=BC]]>根据minC||Y-BC||F2+λ||C||2,1,]]>求解得到系数C=ZE;]]>其中:λ是联合稀疏正则项和可靠重建项之间的平衡系数;||Ci||2是Ci的l2范数,Ci是矩阵C的第i行;步骤7:对步骤5产生的n个候选目标,计算每个候选目标的重构误差以其中重构误差最小的粒子[x,y,w,h]作为目标跟踪的结果;判断是否处理完所有图像序列的所有帧,若没有,则转到步骤4继续;若处理完,则跟踪结束。...

【技术特征摘要】
1.一种基于子空间特征的多任务学习目标跟踪方法,其特征在于步骤如下:
步骤1:读取第一帧图像数据以及目标块在第一帧图像中的参数[x,y,w,h],在目
标周围根据高斯分布随机产生m个粒子点,并记录其坐标(xi,yi),i=1,2,L,m;每个
粒子代表了一个目标样本;
其中:x,y表示目标中心的横纵坐标,w,h表示目标的宽和高;
步骤2:采用仿射变换将每个目标样本区域规划到一个M×N的标准图像块
z∈RM×N;
步骤3:对每个目标样本使用增量PCA算法,提取每个目标样本的视觉特征表示
向量ui;
步骤4:将所有目标样本对应的列向量ui组合到一起为D=[u1,u2,L,um],引入琐碎
模板Id∈Rd×d实现重构噪声和遮挡,构成一个大小为d×(m+d)维的字典V=[D Id];其
中:Id为单位矩阵;
步骤5:读取下一帧图像,在上一帧图像的目...

【专利技术属性】
技术研发人员:李映胡晓华
申请(专利权)人:西北工业大学
类型:发明
国别省市:陕西;61

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1