一种用于疲劳驾驶实时监测的眼睛定位方法技术

技术编号:10576654 阅读:149 留言:0更新日期:2014-10-29 10:38
本发明专利技术涉及一种用于疲劳驾驶实时监测的眼睛定位方法,利用Matlab2012软件实现,包括以下步骤:步骤一,对人脸及眼睛初始定位,获得眼睛精确图像;步骤二,基于YCbCr色彩空间肤色模型的相邻帧差法,求相邻帧差值的绝对值;步骤三,根据相邻帧差值的二值图像,判断前后两帧头部图像是否重叠;步骤四,头部位移检测:分别检测头部横向位移dx及纵向位移dy;步骤五,眼睛候选区域预测;步骤六,眼睛候选区域修正;步骤七,重复步骤二至步骤六,进行下一帧的眼睛定位。本发明专利技术能够在减少人脸定位计算量、提高眼睛定位的速度和图像处理帧速的同时,确保眼睛定位的准确性,从而兼顾依据眼睛状态进行驾驶疲劳监测的实时性及可靠性。

【技术实现步骤摘要】
一种用于疲劳驾驶实时监测的眼睛定位方法
本专利技术涉及疲劳驾驶监测方法,具体涉及一种用于疲劳驾驶实时监测的眼睛定位方法。
技术介绍
随着社会经济发展,汽车已成为人们日常生活中必不可少的一种交通工具。汽车数量的日益增加,在为人们的出行、运输等带来方便的同时,频发的交通事故也给人们的生命安全和财产带来了巨大的损失。根据国内外的相关统计数据表明,各国因疲劳驾驶而导致的交通事故占到交通事故总数的10%~20%,可见疲劳驾驶是造成交通事故的主要因素之一,因而近年来疲劳驾驶监测技术的研究受到越来越多的关注。目前,疲劳驾驶监测技术主要包括基于人体生理信号、驾驶员操作行为和车辆状态的驾驶疲劳监测技术,但是由于生理信号非平稳性、传感器的复杂性和接触性,以及模型的不完善,没能取得较好的监测效果。如CN102406507A公开“一种基于人体生理信号的汽车驾驶员疲劳监测方法”,包括疲劳标定方法和检测方法。标定方法包括:通过传感器采集并提取N次单位时间的脉搏峰值与频率、心率以及呼吸频率构成疲劳特征标定矩阵,通过主成分分析方法建立各疲劳特征的权重向量,将权值加成至标定矩阵,由此构建疲劳标定向量。疲劳检测方法包括:将标定权重加成至单位时间内疲劳特征向量,计算特征向量与标定向量的马氏距离,通过其距离离散程度判别汽车驾驶员疲劳程度,并进行预警。该监测方法基于中医理论,结合现代信号处理方法寻找出汽车驾驶员的疲劳特征。CN103279752A公开“一种基于改进Adaboost方法和人脸几何特征的眼睛定位方法”,其具体步骤为:步骤一:分别训练人脸分类器和眼睛分类器;步骤二:利用训练好的人脸分类器确定人脸位置;步骤三:利用训练好的眼睛分类器在检测出的人脸区域的上部2/3的部分确定候选眼睛区域的位置;步骤四:利用人脸统计学意义上的内在几何特征确定各组眼睛对的几何特征系数;步骤五:确定每组候选眼睛对的各自判决度量d;步骤六:比较各组候选眼睛对的判决度量,判决度量越小,表示该候选眼睛对的置信水平越高;即可确定出最佳的一组眼睛对,进而确定出眼睛的最佳位置。该定位方法利用人脸内在的几何特征对搜索到的眼睛区域进一步甄别,能够准确有效地确定眼睛的最佳位置。但是,不能监测眼睛疲劳程度。较为成熟的技术是通过视频监测眼睛疲劳程度来实现PERCLOS(PercentageofEyelidClosureOverthePupilOverTime,眼睛闭合占特定时间的百分率)监测。当前PERCLOS监测在具体实现时,对每帧图像重复进行相同的定位步骤。虽然逐帧定位能实现眼睛的精确定位,但是没有发掘相邻帧图像之间的关联来简化人脸、眼睛的某些定位步骤,计算量大,眼睛定位速度难以提升,实时性差。前人研究结果表明,一般情况下人们眼睛闭合的时间在0.2~0.3s之间,而PERCLOS指标常以一分钟作为人脸采样与分析的时间窗,若眼睛定位方法实时性不能满足采样定理的要求,则难以准确监测眼睛的开闭状态,对于瞬间发生的疲劳事件容易出现延误判决和漏判,难以有效避免事故的发生。因而系统延迟对于现有PERCLOS疲劳驾驶监测方法的有效性影响甚大。为了获得较好的疲劳监测和预警效果,还需要进一步探索眼睛定位方法,并满足PERCLOS疲劳判定模型对实时性的要求。
技术实现思路
本专利技术针对现有逐帧眼睛定位方法计算量大,速度慢的缺点,提出一种用于疲劳驾驶实时监测的眼睛定位方法,该方法能够在保证眼睛定位准确性的同时,减少人脸定位的计算量,从而提高图像处理速度,实现对眼睛开闭状态的实时监测,保证驾驶疲劳监测系统的可靠性。该方法基于YCbCr色彩空间相邻两帧的差值来检测等采样间隔中眼睛位置的移动,并参照前一帧图像定位出的眼睛准确区域,就可以确定当前帧眼睛的候选区域,再对候选区域进行提取,即可得到眼睛的准确区域。本专利技术所述的一种用于疲劳驾驶实时监测的眼睛定位方法,利用Matlab2012软件实现,包括以下步骤:步骤一,对人脸及眼睛初始定位,获得眼睛精确图像:先利用摄像头拍摄清晰的人脸彩色图像,再分割人脸彩色图像,获得人脸宽度Fw和人脸高度Fh,然后,利用现有眼睛定位方法对第一帧图像进行眼睛定位,得出第一帧眼睛所在的矩形区域和精确位置,即眼睛精确图像,并记录下眼睛位置的参数{(x,y),w,h};其中(x,y)为矩形区域左上角点的坐标,w为矩形的宽度,h为矩形的高度;步骤二,基于YCbCr色彩空间肤色模型的相邻帧差法,求相邻帧差值的绝对值:先将相邻两帧彩色图像均转换到YCbCr色彩空间,得到前后两帧YCbCr色彩空间的图像,用img1表示前一帧YCbCr色彩空间的图像,用img2表示后一帧YCbCr色彩空间的图像;然后利用“肤色模型”(袁英.基于视觉的汽车驾驶员疲劳驾驶检测算法研究,沈阳工业大学硕士学位论文,2010年,p.11)对img1和img2进行二值化处理,得到两帧二值图像,用BW1表示前一帧二值图像,用BW2表示后一帧二值图像;最后将两帧二值图像BW1和BW2相减并取绝对值,得到相邻帧差值的二值图像BW。步骤三,根据相邻帧差值的二值图像,判断前后两帧头部图像是否重叠:相邻两帧头部图像若是重叠,则执行下一步;相邻两帧头部图像若没有重叠,返回步骤一;相邻两帧头部图像重叠判断的方法是,假设前一帧二值图像BW1的像素值为1的区域面积为A1,假设后一帧二值图像BW2的像素值为1的区域面积为A2,假设相邻帧差值的二值图像BW的像素值为1的区域面积为A3,若0≤A3<A1+A2,则相邻两帧图像有重叠,否则不重叠;步骤四,头部位移检测:分别检测头部横向位移dx及纵向位移dy;步骤五,眼睛候选区域预测:依据头部位移,利用“眼睛位移预测模型”对眼睛横向位移Dx及纵向位移Dy进行预测;令前一帧图像的眼睛实际所在的矩形区域表示为{(x,y),w,h},(x,y)为矩形区域左上角点的坐标,w为矩形的宽度,h为矩形的高度;根据位移量Dx、Dy和前一帧眼睛所在的矩形区域,即可确定当前帧眼睛候选区域:{(x-Dx,y-Dy),w+2Dx,h+2Dy}。步骤六,眼睛候选区域修正:1)利用Matlab2012软件中的rgb2gray(rgb2gray是享誉全球的科学计算软件Matlab图像处理工具箱中的函数,其功能是将彩色图像RGB转换成灰度图像I,其使用方法为:I=rgb2gray(RGB))函数将眼睛候选区域图转换为灰度图像;2)利用“最大类间方差法”(NOBUYUKIOTSU.Athresholdselectionmethodfromgraylevelhistograms.IEEETRANSACTIONSONSYSTREMS,MAN,ANDCYBERNETICS,VOL.SMC-9,NO.1,JANUARY1979,p62-66.)找出图像进行灰度阈值分割所需要的阈值T;3)利用阈值T对图像进行阈值分割,得到一幅二值图像;4)利用Matlab2012软件中的bwlabel【Matlab图像处理工具箱的函数,其功能是标记二值图像中的连通区域,使用方法L=bwlabel(BW,n),该函数返回一个与BW同样大小的矩阵L,L含有BW中连通对象的标记,n一般选取4或者8,意即四向连通或八向连通,默认为8】函数对阈值分割后得到的二值图像进本文档来自技高网
...
一种用于疲劳驾驶实时监测的眼睛定位方法

【技术保护点】
一种用于疲劳驾驶实时监测的眼睛定位方法,利用Matlab2012软件实现,包括以下步骤:步骤一,对人脸及眼睛初始定位,获得眼睛精确图像:先利用摄像头拍摄清晰的人脸彩色图像,再分割人脸彩色图像,获得人脸宽度Fw和人脸高度Fh,然后,利用“现有眼睛定位方法”对第一帧图像进行眼睛定位,得出第一帧眼睛所在的矩形区域和精确位置,即眼睛精确图像,并记录下眼睛位置的参数{(x,y),w,h};步骤二,基于YCbCr色彩空间肤色模型的相邻帧差法,求相邻帧差值的绝对值:先将相邻两帧彩色图像均转换到YCbCr色彩空间,得到前后两帧YCbCr色彩空间的图像,用img1表示前一帧YCbCr色彩空间的图像,用img2表示后一帧YCbCr色彩空间的图像;然后利用“肤色模型”对img1和img2进行二值化处理,得到两帧二值图像,用BW1表示前一帧二值图像,用BW2表示后一帧二值图像;最后将两帧二值图像BW1和BW2相减并取绝对值,得到相邻帧差值的二值图像BW;步骤三,根据相邻帧差值的二值图像,判断前后两帧头部图像是否重叠:相邻两帧头部图像若是重叠,则执行下一步;相邻两帧头部图像若没有重叠,返回步骤一;相邻两帧头部图像重叠判断的方法是,假设前一帧二值图像BW1的像素值为1的区域面积为A1,假设后一帧二值图像BW2的像素值为1的区域面积为A2,假设相邻帧差值的二值图像BW的像素值为1的区域面积为A3,若0≤A3<A1+A2,则相邻两帧图像有重叠,否则不重叠;步骤四,头部位移检测:分别检测头部横向位移dx及纵向位移dy;步骤五,眼睛候选区域预测:依据头部位移,利用“眼睛位移预测模型”对眼睛横向位移Dx及纵向位移Dy进行预测;所述眼睛位移预测模型为:Dx=1.2dx-1.4Dy=0.9dy+0.4]]>令前一帧图像的眼睛实际所在的矩形区域表示为{(x,y),w,h},(x,y)为矩形区域左上角点的坐标,w为矩形的宽度,h为矩形的高度;根据位移量Dx、Dy和前一帧眼睛所在的矩形区域,即可确定当前帧眼睛候选区域:步骤六,眼睛候选区域修正:1)利用Matlab2012软件中的rgb2gray函数将眼睛候选区域图转换为灰度图像;2)利用“最大类间方差法”找出图像进行灰度阈值分割所需要的阈值T;3)利用阈值T对图像进行阈值分割,得到一幅二值图像;4)利用Matlab2012软件中的bwlabel函数对阈值分割后得到的二值图像进行连通区域标记;5)找出连通标记结果中面积最大的两个区域,作为眼睛区域;6)截取眼睛候选区域原始图像中与4)中区域对应的图像,得到的图像即为眼睛的准确区域图像;7)参照图2记录下眼睛的位置参数{(x,y),w,h},替代步骤一中的{(x,y),w,h};步骤七,重复步骤二至步骤六,进行下一帧的眼睛定位。...

【技术特征摘要】
1.一种用于疲劳驾驶实时监测的眼睛定位方法,利用Matlab2012软件实现,包括以下步骤:步骤一,对人脸及眼睛初始定位,获得眼睛精确图像:先利用摄像头拍摄清晰的人脸彩色图像,再分割人脸彩色图像,获得人脸宽度Fw和人脸高度Fh,然后,利用“现有眼睛定位方法”对第一帧图像进行眼睛定位,得出第一帧眼睛所在的矩形区域和精确位置,即眼睛精确图像,并记录下眼睛位置的参数{(x,y),w,h};其中(x,y)为矩形区域左上角点的坐标,w为矩形的宽度,h为矩形的高度;步骤二,基于YCbCr色彩空间肤色模型的相邻帧差法,求相邻帧差值的绝对值:先将相邻两帧彩色图像均转换到YCbCr色彩空间,得到前后两帧YCbCr色彩空间的图像,用img1表示前一帧YCbCr色彩空间的图像,用img2表示后一帧YCbCr色彩空间的图像;然后利用“肤色模型”对img1和img2进行二值化处理,得到两帧二值图像,用BW1表示前一帧二值图像,用BW2表示后一帧二值图像;最后将两帧二值图像BW1和BW2相减并取绝对值,得到相邻帧差值的二值图像BW;步骤三,根据相邻帧差值的二值图像,判断前后两帧头部图像是否重叠:相邻两帧头部图像若是重叠,则执行下一步;相邻两帧头部图像若没有重叠,返回步骤一;相邻两帧头部图像重叠判断的方法是,假设前一帧二值图像BW1的像素值为1的区域面积为A1,假设后一帧二值图像BW2的像素值为1的区域面积为A2,假设相邻帧差值的二值图像BW的像素值为1的区域面积为A3,若0≤A3<A1+A2,则相邻两帧图像有重叠,否则不重叠;步骤四,头部位移检测:分别检测头部横向位移dx及纵向位移dy;步骤五,眼睛候选区域预测:依据头部位移,利用“眼睛位移预测模型”对眼睛横向位移Dx及纵向位移Dy进行预测;所述眼睛位移预测模型为:令前一帧图像的眼睛实际所在的矩形区域表示为{(x,y),w,h},(x,y)为矩形区域左上角点的坐标,w为矩形的宽度,h为矩形的高度;根据位移量Dx、Dy和前一帧眼睛所在的矩形区域,即可确定当前帧眼睛候选区域:{(x-Dx,y-Dy),w+2·Dx,h+2·Dy};步骤六,眼睛候选区域修正:1)利用Matlab2012软件中的rgb2gray函数将眼睛候选区域图转换为灰度图像;2)利用“最大类间方差法”找出图像进行灰度阈值分割所需要的阈值T;3...

【专利技术属性】
技术研发人员:赵安梁万元种银保
申请(专利权)人:中国人民解放军第三军医大学第二附属医院
类型:发明
国别省市:重庆;85

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1