一种基于AdaBoost的弱分类器内部结构调整方法技术

技术编号:9034242 阅读:307 留言:0更新日期:2013-08-15 01:04
本发明专利技术公开了一种基于AdaBoost的弱分类器内部结构调整方法,首先是训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果;其次是内部结构调整、最佳弱分类器参数选择和调整验证,然后利用遗传算法来解决最优化问题,最后是训练样本重新加权,根据训练样本的错误率高低来重新确定样本的权重。本发明专利技术在场景分类问题上有非常好的表现,分辨率高,误判率低。

【技术实现步骤摘要】

本专利技术属于目标检测
,特别是。
技术介绍
目标的检测识别方法很多,大致可分为基于区域的模板匹配检测方法和基于特征的匹配检测方法。基于区域的图像模板匹配能利用目标图像中的所有信息,对目标对象的识别能力强、精度高,但对旋转和缩放(非本质变化)目标图像的识别能力较差。图像特征匹配具有稳定性好、易于实现、匹配效率高、对图像的旋转和缩放小敏感、抗噪性能好等特点,但是计算量大,检测效果与选取的特征直接相关。Boosting 方法是由 Freund 和 Schapire 在 1990 年提出的(1.Schapire R E.The Strength of Weak Learnability.Machine Learning, 1990, 5(2): 197-227.),是提高预测学习系统的预测能力的有效工具之一,它试图提供一种提升学习算法精度的普遍方法。随后,Freund提出了一种效率更高的Boosting算法(2.Freund Y.Boostinga weak Learning Algorithm by Majority.1nformation and Computation 1995,121 (2): 256-285.)。1995· 年,Freund 和 Schapire 提出了 AdaBoost 算法(3.Freund Y.,Schapire R.Ε..A Decision-Theoretic Generalization of On-Line Learning andan Application to Boosting.Journal of Computer and System Sciences, 1995,55(1): 119-139.),AdaBoost算法是Boosting家族的代表算法,它本身是通过改变数据分布来实现的。它根据每轮训练中每个样本的分类是否正确,以及上轮的总体分类准确率,来确定每个样本的权值。将每次训练得到的弱分类器融合起来,作为最后的决策分类器。AdaBoost算法提出后在机器学习领域受到了极大的关注,实验结果显示无论是应用于人造数据还是真实数据,AdaBoost都能显著提高学习精度。该类方法虽然实时性较好,识别率高且误识别率低,但是该类方法训练样本时,一旦选择好弱分类器,弱分类器内部结构就不再变化,无法减小性能差(正确率低、误检率高)的弱分类器对最终检测的影响,且训练样本非常大时,训练弱分类器所需时间过长。
技术实现思路
本专利技术的目的在于提供,从而减小性能差的弱分类器对最终检测的影响,提高场景分类的正确率和降低误检率。实现本专利技术目的的技术解决方案为:,包括以下步骤:步骤一:训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果;步骤二:对弱分类器进行内部结构调整,每个弱分类器的调整是由一个调整向量β和一个偏移向量Π决定的,它们的维数都是IXN维,N为多级弱分类器的数目,按权利要求1.,其特征在于包括以下步骤: 步骤一:训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果; 步骤二:对弱分类器进行内部结构调整,每个弱分类器的调整是由一个调整向量β和一个偏移向量η决定的,它们的维数都是IXN维,N为多级弱分类器的数目,按Ir (-V, y) = P- (H; (-V) - n- ),JE7 = {1,.. N}进行调整; 步骤三:对内部结构调整后的弱分类器进行最佳参数选择,利用遗传算法来选取最佳参数; 步骤四:调整过的弱分类器进行验证,即满足一个设定的阈值,具体为对于m个样本,调整验证计算方式如下:2.根据权利要求1所述的基于AdaBoost的弱分类器内部结构调整方法,特征在于步骤一中,弱分类器训练的步骤为:首先,给定训练数据集 D=Kx1, Y1), (x2, y2),…,(xm, ym)} Xi e X,yi e ={1,..., k}, X 代表样本空间,Y代表类别标签,m为样本数量,k为类别数量;其次,给所有的训练样本赋予相同的权值,第t轮迭代过程中的权值分布为Dt,初始化权值D1(I)=IAi,第一次迭代时每个样本的权值都为Ι/m ;在训练数据集和初始权值D1Q)下训练,得到一个弱假设ht:X —Y,X代表样本空间,Y代表类别标签,t为当前迭代轮数;然后使用训练数据测试ht,计算ht的错误率ε t= Σ Dt⑴,如果ε t > 1/2,则T=t_l,退出循环;设ht的权重为:a t= ε t/(l_ ε t),根据公式3.根据权利要求1所述的基于AdaBoost的弱分类器内部结构调整方法,特征在于步骤二中的内部结构调整方法为:最终的分类器由M个强分类器级联组成,每个强分类器由N个弱分类器组成, i f〉代表第q级强分类器对输入样本的响应向量,< 代表第q级强分类器中相对应的第k级弱分类器对输入样本的响应,其中,q=l,一,M,k=l, - ,N, Ck代表每个强分类器中的第k级弱分类器,内部结构调整向量八…最佳偏移向量%=〈<...,<〉,假设ht(x,y)是第t级内部结构调整过的弱分类器的分类, =1,...,Μ,则4.根据权利要求1所述的基于AdaBoost的弱分类器内部结构调整方法,特征在于步骤三中利用遗传算法来选取最佳参数,设定调整向量β的范围为,偏移向量η的范围为,具体实现步骤如下: (1)初始化遗传算法参数,交叉概率Pc=0.8,变异概率Pm=0.05,群体大小Ps=400,最大迭代次数Im=50000,最小误差变化Em=10_6,初始进化种群代数t=l ; (2)生成Ps个体,并编码成染色体; (3)根据方程全文摘要本专利技术公开了,首先是训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果;其次是内部结构调整、最佳弱分类器参数选择和调整验证,然后利用遗传算法来解决最优化问题,最后是训练样本重新加权,根据训练样本的错误率高低来重新确定样本的权重。本专利技术在场景分类问题上有非常好的表现,分辨率高,误判率低。文档编号G06K9/66GK103246897SQ20131020533公开日2013年8月14日 申请日期2013年5月27日 优先权日2013年5月27日专利技术者钱惟贤, 杨力, 胡楷, 周霞, 任建乐, 顾国华, 陈钱, 路东明, 隋修宝 申请人:南京理工大学本文档来自技高网
...

【技术保护点】
一种基于AdaBoost的弱分类器内部结构调整方法,其特征在于包括以下步骤:步骤一:训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果;步骤二:对弱分类器进行内部结构调整,每个弱分类器的调整是由一个调整向量β和一个偏移向量η决定的,它们的维数都是1×N维,N为多级弱分类器的数目,按ht(x,y)=βty(Rty(x)-ηty),y∈Y={1,...,N}进行调整;步骤三:对内部结构调整后的弱分类器进行最佳参数选择,利用遗传算法来选取最佳参数;步骤四:调整过的弱分类器进行验证,即满足一个设定的阈值,具体为对于m个样本,调整验证计算方式如下:,q=1,…,M其中是弱分类器对于m个样本的分类表现,θq={θq0,θq1,...,θqK},?代表未经内部结构调,θq0=<ηq0,βq0>;ηq0=0,βq0=1;代表调整过的弱分类器对m个样本的分类表现,其中:&theta;q*=<ηq*,βq*>=argmaxθqf(θq)其中f(θq)?是加权向量样本正确分辨率,f(θq)=1mΣi=1m[hq(xi,yi)]其中i=1,…,m,M为强分类器个数,m为训练样本集中样本数量;如果不成立,那么使用步骤一训练后的弱分类器;步骤五:训练样本重新加权,使用训练样本测试调整过的弱分类器,根据步骤一再次确定样本的权值,并计算每个强分类器的输出,最后将M个强分类器 串联得到最终的级联分类器。FDA0000325125972.jpg,FDA0000325125973.jpg,FDA0000325125974.jpg,FDA0000325125976.jpg,FDA0000325125978.jpg,FDA00003251259711.jpg...

【技术特征摘要】

【专利技术属性】
技术研发人员:钱惟贤杨力胡楷周霞任建乐顾国华陈钱路东明隋修宝
申请(专利权)人:南京理工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1