【技术实现步骤摘要】
一种基于数字视频图像处理的瞳孔中心定位方法
本专利技术涉及一种基于数字视频图像处理的瞳孔中心定位方法。
技术介绍
眼动追踪技术也称为视觉追踪技术,是利用软件算法、机械、电子、光学等各种检测手段获取受试者当前视觉注意方向的技术,其应用范围已经渗透到了人类社会生活的各个领域,例如,在智能人机交互领域,眼动追踪技术将成为人类和机器互动的主要方式之一,对上肢残疾人士、老年人或者双手因执行操作任务而被占用的人员来说是一个很好的辅助方式;在医学领域,可以通过眼球的运动轨迹或者瞳孔的变化规律来诊断精神方面的疾病及眼部疾病;在VR(虚拟现实)领域,眼睛作为人与虚拟世界的唯一接触,眼动追踪技术成了虚拟现实系统中人机交互重要手段;瞳孔中心定位是眼动追踪技术最核心的部分。现有的瞳孔中心定位方法抗干扰能力弱,复杂背景下、眼睫毛较长、以及刘海、佩戴眼镜对脸部遮挡情况下对其准确率影响较大,存在瞳孔定位速度慢、定位准确率低等缺点。
技术实现思路
本专利技术的目的是为了解决现有的瞳孔定位方法存在瞳孔定位速度慢、定位准确率低、复杂背景下、眼睫毛较长、以及刘海、佩戴眼镜对脸部遮挡情况下对准确率影响较大等 ...
【技术保护点】
1.一种基于数字视频图像处理的瞳孔中心定位方法,其特征在于:所述方法通过以下步骤实现:步骤一、通过摄像头采集视频图像并以数字RGB格式输出每一帧;步骤二、通过粗略人脸图像分割与AdaBoost算法相结合的方法进行人脸检测与定位,确定出视频图像中的人脸部图像;其中,在粗略人脸图像分割中采用YCgCr颜色空间与形态学运算相结合;在AdaBoost训练算法采用强分类器级联方法;步骤三、确定脸部图像后利用人眼区域相对于人脸其他区域灰度值差别较大的特点,进行人眼图像的定位;步骤四、利用边缘检测和Hough变换圆检测,确定瞳孔中心位置。
【技术特征摘要】
1.一种基于数字视频图像处理的瞳孔中心定位方法,其特征在于:所述方法通过以下步骤实现:步骤一、通过摄像头采集视频图像并以数字RGB格式输出每一帧;步骤二、通过粗略人脸图像分割与AdaBoost算法相结合的方法进行人脸检测与定位,确定出视频图像中的人脸部图像;其中,在粗略人脸图像分割中采用YCgCr颜色空间与形态学运算相结合;在AdaBoost训练算法采用强分类器级联方法;步骤三、确定脸部图像后利用人眼区域相对于人脸其他区域灰度值差别较大的特点,进行人眼图像的定位;步骤四、利用边缘检测和Hough变换圆检测,确定瞳孔中心位置。2.根据权利要求1所述的基于数字视频图像处理的瞳孔中心定位方法,其特征在于:所述的步骤一中通过摄像头采集视频图像并以数字RGB格式输出每一帧的过程是利用高速摄像头进行数字视频图像的采集。3.根据权利要求1或2所述的基于数字视频图像处理的瞳孔中心定位方法,其特征在于:所述的步骤二中通过粗略人脸图像分割与AdaBoost算法相结合的方法进行人脸检测与定位,确定出视频图像中的人脸部图像的过程为:根据摄像头采集到的RGB颜色空间的数据计算出其在YCgCr颜色空间的描述形式,之后在YCgCr颜色空间利用每个像素点的Cg、Cr值,对视频图像进行肤色聚类处理,根据肤色聚类信息构建二值图像矩阵,之后进行先大面积膨胀,后大面积腐蚀的形态学运算,得到粗略的人脸候选区域,之后利用人脸候选区域像素坐标信息在摄像头采集到的原始图像中取出对应的粗略的人脸候选区域部分进行灰度化,使用AdaBoost算法对灰度化后的图像进行人脸检测获得精准的人脸图像。4.根据权利要求3所述的基于数字视频图像处理的瞳孔中心定位方法,其特征在于:所述的步骤二中通过粗略人脸图像分割与AdaBoost算法相结合的方法进行人脸检测与定位,确定出视频图像中的人脸部图像的过程为:步骤二一、根据摄像头采集到的RGB颜色空间的数据计算出其在YCgCr颜色空间的描述形式进行肤色聚类:通过摄像头采集视频图像并以数字RGB格式输出每一帧,将每一帧的像素点按照公式(1)计算出其在YCgCr颜色空间的描述形式,得到这些图片中每个像素点的Cg和Cr值,其中,RGB颜色空间是指以R(Red:红)、G(Green:绿)、B(Blue:蓝)为三原色,进行不同程度的混叠以描述色彩,YCgCr颜色空间是指以亮度和色度来描述色彩,Y表示亮度值,Cg表示绿色色度分量,Cr表示红色色度分量;由于肤色像素点对应的Cg取值主要分布在[85,135]区间内、Cr取值主要分布在区间[130,165]内,将像素点转换到YCgCr空间后,遍历每个像素点的Cg,Cr值,用公式(2)筛选出肤色像素并根据每个像素点的坐标和Cg、Cr分布信息构建二值图像矩阵BW;其中:and表示与关系,or表示或关系;BW为像素点取值为255或者0的二值图像矩阵;步骤二二、通过公式(3)对BW进行大面积的膨胀操作,然后再利用公式(4)对BWP大面积腐蚀操作;BWF=BWpΘB,(4)其中A为25x25的方型结构元素B为20x20的方型结构元素符号表示形态学膨胀操作,符号Θ表示形态学腐蚀操作,BWP为用A对BW膨胀操作后获得的二值图像矩阵,BWF为用B对BWP腐蚀操作后获得的二值图像矩阵;步骤二三、根据步骤二二获得的BWF二值图像矩阵,利用其值为255的像素的坐标,在摄像头采集到的原始图像RGB颜色空间中,取出对应坐标像素点,再利用公式(5)进行灰度化获得粗略的人脸图像,待进一步利用AdaBoost算法检测人脸;步骤二四、计算步骤二三获得的灰化后的粗略的人脸图像的Haar-like特征值,检测并精准确定脸部图像;由于图像的像素点较多,Haar-like特征值的计算量较大,因此本发明并采用积分图法加速Haar-like特征值的计算;然后通过AdaBoost算法进行特征选取,得到精准的脸部图像。5.根据权利要求4所述的基于数字视频图像处理的瞳孔中心定位方法,其特征在于:所述的步骤二四中,计算步骤二三获得的灰化后的粗略的人脸图像的Haar-like特征值,检测并精准确定脸部图像;采用积分图法加速Haar-like特征值的计算;然后通过AdaBoost算法进行特征选取,得到精准的脸部图像的过程具体为:a)将步骤二三获得的灰化后的粗略脸部图像,通过公式(6)计算得出积分图ii,其中,ii(x,y)表示积分图像;i(x′,y′)表示原图像中位于(x′,y′)位置的像素灰度值;b)利用积分图运算得到Haar-like特征;c)利用AdaBoost算法进行特征选取,检测出精准的脸部图像结果;d)将训练得到的多个强分类器串联得到一个级联分类器,具体方法为:给定训练样本,用P表示目标样本集,N表示非目标样本集,用f表示级联分类器每层分类误差的上限,用d表示级联分类器每层分类准确率的下限,用Ft表示整个级联分类器的误差;1)初始化第i次迭代时的分类器误差Fi,Fi=1,i=1;2)迭代以下步骤,直到Fi<Ft;2a)、对于第i层,设定一个阈值,使用训练样本进行训练,使得该层的误差fi小于f,并且该层的分类准确率di大于d;2b)、令Fi+1=fiFi,i=i0+1,2c)、如果Fi>Ft,则使用当前的分类器对所有非人脸图片进行扫描,将其中的分类错的图片放入非目标样本集合中;3)级联分类器算法结束。6.根据权利要求5所述的基于数字视频图像处理的瞳孔中心定...
【专利技术属性】
技术研发人员:王鹏,才思文,薛楠,董鑫,沈翔,
申请(专利权)人:哈尔滨理工大学,
类型:发明
国别省市:黑龙江,23
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。