基于机器视觉的交通视频监控目标检测快速适应方法技术

技术编号:8934635 阅读:233 留言:0更新日期:2013-07-18 03:14
本发明专利技术属于机器视觉与智能控制领域,用于实现交通视频监控目标检测的快速自适应。首先建立初始训练样本库,接下来分别训练基于Haar特征的AdaBoost分类器和基于HOG特征的SVM分类器,利用训练好的两个分类器对监控图像逐帧检测,检测过程为分别利用两类分类器对检测框中的子图像进行预测,并对预测结果进行置信度判断,将大置信度对应的预测标签以及子图像加入到小置信度对应的分类器的附加训练样本库中,直到检测框大小达到被检测图像大小一半时结束,此时利用更新后的训练样本库重新训练两类分类器,并进行下一帧图像的检测,直到检测完所有图像,此时可将最终分类器用于实际的交通场景中进行车辆、行人等目标的检测。

【技术实现步骤摘要】

本专利技术属于机器视觉与智能控制领域,是一种利用计算机技术、图像处理技术、机器学习技术和模式识别技术等对交通视频监控目标进行检测的专利技术。
技术介绍
准确而实时的检测出交通视频中的行人、车辆等监控目标是进行目标跟踪、行为分析等后续交通视频处理的根本保证。交通视频监控目标检测的相关研究已经有很多,目前大多采用模式识别中的机器学习方法进行目标检测。只要将待检测的目标图像加入到训练样本库的正样本库中,将复杂的背景加入到训练样本库的负样本库中,选择合适的分类器对正负样本进行学习,从中找出目标与背景之间的差异,就可以在以后的检测中准确检测出来。对于行人、车辆等交通视频监控目标,已经具有大规模标注数据库,然而利用这些数据库中的样本所训练的分类器对一些特定场景中的监控目标进行检测并不能取得较好的检测效果,这是因为用于训练分类器的样本数据分布与目标场景中的数据分布存在一定差异。已有数据库中的正样本图像多为监控目标的正面图像,而在实际应用中,由于不同路段的摄像机具有不同的架设条件,如不同的架设高度和倾斜角度,以及PTZ(Pan/Tilt/Zoom)的随时调整,使得待检测视频中拍摄到的有可能是监控目标的侧面或顶部,因此需要获得这些监控目标图像并加入到训练样本库的正样本库中。已有数据库中的负样本图像为不包含监控目标的背景图像,然而在不同路段会存在不同的背景,使得拍摄的待检测视频中出现树木及不同建筑等复杂背景图像,因此需要获得这些背景图像并加入到训练样本库的负样本库中。而这样的过程需要花费大量的时间和人力成本,想要获得全面的样本库是难以实现的,目前的现状已经严重影响了交通视频智能检测技术的广泛应用。因此需要找到一种方法来改变目前的这种现状,这种方法需要做到以下三点。第一,该方法能够快速适应于各路段摄像机的不同架设条件,并得到鲁棒的目标检测精度。第二,该方法应适用于人脸检测、车辆检测及行人检测等的分类器训练,并可移植到DSP中,应用于实际系统中。第三,该方法应节省时间和人力成本,并加强基于模式识别的现代先进视觉目标检测及识别技术的实际工程应用及系统维护。
技术实现思路
本专利技术提出了利用半监督学习方法中的co-training方法提高交通视频监控目标检测算法的鲁棒性,使其自适应外界环境的变化。当检测的交通场景发生改变时,通过co-training方法让两个相互独立的分类器互相监督学习,为对方加入新环境下的待检测目标和非检测目标的样本图片进行新分类器的训练,以此适应外界环境的变化,提高交通目标检测算法的鲁棒性。而为了保证新增加样本的可靠性,在co-training方法中加入样本图片预测标签的置信度判断。1.,基于由监控摄像机、监控设备、服务器构成的硬件平台,其特征在于包括以下步骤:(I).建立初始训练样本库,所述的初始训练样本库由正样本即包含待检测目标的图像,和负样本即不包含待检测目标的图像组成;(2).训练初始分类器:从初始训练样本库的各个样本中提取Haar特征用于训练初始AdaBoost分类器,所选择的Haar特征包含边缘特征、线性特征、中心环绕特征和特殊对角线特征;再从初始训练样本库的各个样本中提取HOG特征用于训练初始SVM分类器;(3).使用检测框对监控摄像机所拍摄的同一段视频的同一帧图像进行遍历,对遍历过程中检测框所圈中的子图像进行检测,检测过程结束后移动检测框至下一位置重复检测过程,直至遍历完整帧图像;之后扩大检测框的大小并再次遍历整帧图像,直至检测框的大小达到一帧图像的一半时,完成对一帧图像的检测,继续步骤(4);所述的检测过程是对子图像进行标签预测并计算预测标签的置信度,子图像及其预测标签将用于训练更新分类器,因此为了保证更新分类器的检测性能有所提高,就要保证用于训练更新分类器的子图像及其预测标签的正确性,包括以下步骤:(3.1)利用AdaBoost分类器和SVM分类器分别对同一子图像进行检测,分别得到子图像的预测标签预测标签用于表示子图像属于正样本或负样本,若结果不一致,则表示无法保证预测标签的正确性,因此跳出检测过程,并将检测框移动至下一位置;若结果一致 ,则继续进行下一步;其中若子图像属于视频中的第一帧图像,则使用步骤(2)所训练的初始分类器,否则使用步骤(4)最近一次更新后的分类器;(3.2)从初始训练样本库的各个样本图像中分别提取Haar特征和HOG特征的特征值,其中,表示第k个样本图像的Haar特征,xJc表示第k个样本图像的HOG特征;从检测的子图像中分别提取Haar特征和HOG特征的特征值,记作和;计算子图像中提取的特征值与初始训练样本库的各个样本图像中提取的特征值之间的欧式距离,其中,子图像的Haar特征值与初始训练样本库的第k个样本图像的Haar特征值之间的欧式距离为 子图像的HOG特征值与初始训练样本库的第k个样本图像的HOG特征值之间的欧式距离为貞.分别从两组欧式距离中选出K个最小值计算得到两组权重ω11.和ω ,每组包括K个权重值,第k个权重值的计算公式为:权利要求1.,基于由监控摄像机、监控设备、服务器构成的硬件平台,其特征在于包括以下步骤: (1).建立初始训练样本库,所述的初始训练样本库由正样本即包含待检测目标的图像,和负样本即不包含待检测目标的图像组成; (2).训练初始分类器: 从初始训练样本库的各个样本中提取Haar特征,训练初始AdaBoost分类器,所选择的Haar特征包含边缘特征、线性特征、中心环绕特征和特殊对角线特征;再从初始训练样本库的各个样本中提取HOG特征,训练初始SVM分类器; (3).使用检测框对监控摄像机所拍摄的同一段视频的同一帧图像进行遍历,对遍历过程中检测框所圈中的子图像进行检测,检测过程结束后移动检测框至下一位置重复检测过程,直至遍历完整帧图像;之后扩大检测框的大小并再次遍历整帧图像,直至检测框的大小达到一帧图像的一半时,完成对一帧图像的检测,继续步骤(4); 所述的检测过程包括以下步骤: (3.1)利用AdaBoost分类器和SVM分类器分别对同一子图像进行检测,分别得到子图像的预测标签和Jfxj,预测标签用于表示子图像属于正样本或负样本, 若结果不一致,则跳出检测过程,并将检测框移动至下一位置; 若结果一致,则继续进行下一步;其中若子图像属于视频中的第一帧图像,则使用步骤(2)所训练的初始分类器,否则使用步骤(4)最近一次更新后的分类器;(3.2)从初始 训练样本库的各个样本图像中分别提取Haar特征和HOG特征的特征值,其中,-<Γ表示第k个样本图像的Haar特征,表示第k个样本图像的HOG特征;从检测的子图像中分别提取Haar特征和HOG特征的特征值,记作."和Xfm ;计算子图像中提取的特征值与初始训练样本库的各个样本图像中提取的特征值之间的欧式距离,其中,子图像的Haar特征值与初始训练样本库的第k个样本图像的Haar特征值之间的欧式距离为>子图像的HOG特征值与初始训练样本库的第k个样本图像的HOG特征值之间的欧式距离为我分别从两组欧式距离中选出K个最小值计算得到两组权重ωΗ.和ω =,每组包括K个权重值,第k个权重值的计算公式为:Cifer = (1+ d{x,l;u\ XtglDT1 0< 本文档来自技高网
...

【技术保护点】
基于机器视觉的交通视频监控目标检测快速适应方法,基于由监控摄像机、监控设备、服务器构成的硬件平台,其特征在于包括以下步骤:(1).建立初始训练样本库,所述的初始训练样本库由正样本即包含待检测目标的图像,和负样本即不包含待检测目标的图像组成;(2).训练初始分类器:从初始训练样本库的各个样本中提取Haar特征,训练初始AdaBoost分类器,所选择的Haar特征包含边缘特征、线性特征、中心环绕特征和特殊对角线特征;再从初始训练样本库的各个样本中提取HOG特征,训练初始SVM分类器;(3).使用检测框对监控摄像机所拍摄的同一段视频的同一帧图像进行遍历,对遍历过程中检测框所圈中的子图像进行检测,检测过程结束后移动检测框至下一位置重复检测过程,直至遍历完整帧图像;之后扩大检测框的大小并再次遍历整帧图像,直至检测框的大小达到一帧图像的一半时,完成对一帧图像的检测,继续步骤(4);所述的检测过程包括以下步骤:(3.1)利用AdaBoost分类器和SVM分类器分别对同一子图像进行检测,分别得到子图像的预测标签和预测标签用于表示子图像属于正样本或负样本,若结果不一致,则跳出检测过程,并将检测框移动至下一位置;若结果一致,则继续进行下一步;其中若子图像属于视频中的第一帧图像,则使用步骤(2)所训练的初始分类器,否则使用步骤(4)最近一次更新后的分类器;(3.2)从初始训练样本库的各个样本图像中分别提取Haar特征和HOG特征的特征值,其中,表示第k个样本图像的Haar特征,表示第k个样本图像的HOG特征;从检测的子图像中分别提取Haar特征和HOG特征的特征值,记作和计算子图像中提取的特征值与初始训练样本库的各个样本图像中提取的特征值之间的欧式距离,其中,子图像的Haar特征值与初始训练样本库的第k个样本图像的Haar特征值之间的欧式距离为子图像的HOG特征值与初始训练样本库的第k个样本图像的HOG特征值之间的欧式距离为分别从两组欧式距离中选出K个最小值计算得到两组权重 ωHaar和ωHOG,每组包括K个权重值,第k个权重值的计算公式为:ωkHaar=(1+d(xpHaar,xqxHaar))-1,0<ωkHaar<1ωkHOG=(1+d(xpHOG,xqxHOG))-1,0<ωkHOG<1(3.3)计算子图像的预测标签对特征值的置信度以及子图像的预测标签对特征值的置信度其计算公式为JpHaar=Σk=1KωkHaarIkHaarJpHOG=Σk=1KωkHOGIkHOG其中表示对应的初始训练样本库的第k个样本图像的标签是否与子图像的预测标签一致,若一致,否则样本图像的标签即表示该样本图像属于正样本还是负样本;表示对应的初始训练样本库的第k个样本图像的标签是否与子图像的预测标签一致,若一致,否则(3.4)比较步骤(3.3)计算出的和将大的置信度对应的预测标签以及子图像加入到小的置信度对应的分类器的附加训练样本库中;所述的附加训练样本库中的样本由每次循环过程中加入的子图像及其预测标签构成,附加训练样本库和初始训练样本库共同构成对应分类器的训练样本库;(4).若视频未检测至最后一帧,则利用两分类器各自的训练样本库分别重新训练基于Haar特征的AdaBoost分类器和基于HOG特征的SVM分类器,然后跳转至步骤(3)继续检测下一帧图像;否则,分类器训练完成,可将训练的最终分类器用于实际的交通场景中进行车辆、行人等目标的检测。FDA00002946374200011.jpg,FDA00002946374200012.jpg,FDA00002946374200013.jpg,FDA00002946374200014.jpg,FDA00002946374200015.jpg,FDA00002946374200016.jpg,FDA00002946374200017.jpg,FDA00002946374200018.jpg,FDA00002946374200023.jpg,FDA00002946374200024.jpg,FDA00002946374200025.jpg,FDA00002946374200026.jpg,FDA00002946374200027.jpg,FDA00002946374200028.jpg,FDA000029463742000211.jpg,FDA000029463742000212.jpg,FDA000029...

【技术特征摘要】

【专利技术属性】
技术研发人员:刘星辛乐杨德亮陈阳舟吴旭
申请(专利权)人:北京工业大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1