基于眼动数据的分层特征提取与融合的专注度检测装置及方法制造方法及图纸

技术编号:19964841 阅读:33 留言:0更新日期:2019-01-03 13:08
本发明专利技术公开了一种基于眼动数据的分层特征提取与融合的专注度检测装置及方法,首先,使用眼动仪采集人们观看视频时的眼动数据;其次,采用加权logistics regression算法进行眼动事件数据的特征提取与融合;随后,采用小波分解和近似熵算法进行原始眼动数据的特征提取与融合;然后,融合前面提取的新特征,并将其作为样本训练的特征;最后采用adaboost分类算法建立基于眼动数据的专注度检测模型。本发明专利技术将眼动技术应用到了在线视频观看的专注度检测中,并采用眼动数据的分层特征提取与融合的方法,有效的结合了统计的眼动数据和带有时间序列信息的原始眼动数据,提高了检测的准确性。

Concentration Detector and Method Based on Layered Feature Extraction and Fusion of Eye Movement Data

The invention discloses a concentration detection device and method based on hierarchical feature extraction and fusion of eye movement data. Firstly, eye movement data are collected when people watch video by eye movement instrument; secondly, feature extraction and fusion of eye movement event data are carried out by weighted logistics regression algorithm; and then, original eye movement data are carried out by wavelet decomposition and approximate entropy algorithm. Feature extraction and fusion; then, the new feature extracted before is fused and used as the feature of sample training; finally, the concentration detection model based on eye movement data is established by AdaBoost classification algorithm. The invention applies eye movement technology to the concentration detection of online video viewing, and adopts the method of hierarchical feature extraction and fusion of eye movement data, effectively combines statistical eye movement data and original eye movement data with time series information, and improves the accuracy of detection.

【技术实现步骤摘要】
基于眼动数据的分层特征提取与融合的专注度检测装置及方法
本专利技术属于眼动技术的专注度检测领域,涉及一种基于眼动数据的分层特征提取与融合的专注度检测装置及方法。
技术介绍
随着眼动追踪技术与计算机技术的完美结合,加上其他相关技术的飞速发展,利用眼动技术来检测人们观看平面广告,Internet广告时的专注程度和关注的兴趣区域,将会变的越来越流行,同时随着交通事故的不断发生,人们利用眼动技术检测驾驶员的专注度也是一个非常热门的研究领域,但是基于视频的专注度检测的研究很少。现流行的基于眼动数据的专注度检测的论文,所采用的眼动数据包括注视点,瞳孔直径,注视事件,眨眼事件,扫视事件,所采用的方法包括传统的统计方法,信号处理的方法和机器学习的方法,所应用的场景基本都是基于驾驶员的疲劳检测,网页广告分析,也有少量的论文进行了电视中的广告研究,因此采用眼动数据的分层特征提取与融合的新特征的学习算法来研究观看视频时的专注度是一个有益的尝试。
技术实现思路
本专利技术的目的在于克服上述现有技术的缺点,提供一种基于眼动数据的分层特征提取与融合的专注度检测装置及方法为达到上述目的,本专利技术采用以下技术方案予以实现:基于眼动数据的分层特征提取与融合的专注度检测装置,包括依次级联的数据获取模块、注视点追踪模块、扫视轨迹追踪模块、特征提取模块以及专注度检测模块;其中数据获取模块:通过眼动仪获取观看视频时的眼动数据;注视点追踪模块:用于显示观看视频时的注视点移动情况;扫视轨迹追踪模块:用于显示观看视频时的扫视轨迹;特征提取模块:特征提取模块包括眼动数据的特征提取与融合装置,用于处理眼动数据专注度检测模块:采用利用adaboost算法训练专注度检测模型的装置,用于检测在线视频观看者专注度。本专利技术进一步的改进在于:特征提取模块基于logisticsregression算法,用于眼动事件数据的特征提取与融合。特征提取模块基于小波分解和近似熵算法,用于原始眼动事件数据的特征提取与融合。一种基于眼动数据的分层特征提取与融合的专注度检测方法,包括以下步骤:步骤S1、基于logisticsregression算法,通过眼动仪采集观看视频时的眼动数据,进行眼动事件数据的特征提取与融合;步骤S2、采用小波分解和近似熵的算法进行原始眼动数据的特征提取与融合;步骤S3、采用adaboost算法进行专注度检测模型的训练。上述方法的进一步改进在于:步骤S1中,眼动数据包括原始眼动数据和眼动事件数据;原始眼动数据包括眼睛位置、注视点位置、瞳孔位置和瞳孔直径;眼动事件数据包括眨眼事件数据。步骤S1中,眼动事件数据的特征提取与融合的具体方法如下:S1-1输入:训练集D1={(x11,y11),(x12,y12),...,(x1m,y1m)};其中x1i表示第i个样本的眼动事件数据,y1i表示第i个样本的标签;属性集A1={a11,a12,...,a1d};其中a1i表示眼动事件的属性包括扫视事件数据,注视事件数据和眨眼事件数据;S1-2过程:函数glmfit(D1,A1)其中z=θ0+θ1x11+θ2x12+θ3x13...+θnx1n=θTx由上式计算出θ;s=θTx,其中s表示加权后的样本数据。步骤S2中原始眼动数据的特征提取与融合的具体方法如下:S2-1输入:训练集D2={(x21,y21),(x22,y22),...,(x2m,y2m)};其中x2i表示第i个样本的原始眼动数据,y2i表示第i个样本的标签属性集A2={a21,a22,...,a2d}:其中a2i表示原始眼动数据的属性,包括瞳孔直径,瞳孔坐标,眼睛坐标,注视点坐标等;S2-2过程:函数wavedec(D2,A2)和APEN(D2,A2)(1)其中f(t)表示含有时间序列信息的原始眼动数据,a,b表示小波分解的尺度大小,ψ表示小波变换函数,W(f)表示变换后的值;(2)其中ApEn表示经过小波分解后的原始眼动数据的近似熵。步骤S3的具体方法如下:S3-1输入:训练集D3={(x31,y31),(x32,y32),...,(x3m,y3m)};其中x3i表示第i个样本的融合眼动数据,y3i表示第i个样本的标签;属性集A3={a31,a32,...,a3d};其中a3i表示融合的眼动数据的新属性,包括基于logisticsregression算法加权融合的眼动事件数据和基于小波分解和近似熵计算所得的原始眼动数据的新特征的融合;S3-2过程:(1)采用基于融合眼动数据的adaboost算法,进行模型训练;(2)优化参数,改进训练的专注度检测模型。与现有技术相比,本专利技术具有以下有益效果:本专利技术充分结合了眼动事件数据和原始眼动数据两类特征,同时根据不同类型的眼动数据特点,采用不同的特征提取与融合的方法进行特征处理,最后利用adaboost算法训练了一种基于眼动数据的分层特征提取与融合的专注度检测方法来检测人们观看视频时的专注状态。附图说明图1是本专利技术优选实施例的专注度检测方法的流程示意图:图2是本专利技术优选实施例的眼动轨迹追踪示意图:图3是本专利技术优选实施例的基于logisticsregression算法的眼动事件数据的示意图:图4是本专利技术优选实施例的小波分解的示意图:图5是本专利技术优选实施例的基于近似熵的原始眼动数据的示意图:图6是本专利技术优选实施例的adaboost训练的专注度检测模型的示意图:图7是本专利技术的一种检测在线视频观看者专注度的装置的结构图:图8是本专利技术的一种检测在线视频观看者专注度的方法的正常观看的流程图。具体实施方式下面结合附图对本专利技术做进一步详细描述:参见图1,本专利技术的专注度检测方法,包括以下步骤:步骤S1:通过眼动仪采集人们观看视频时的眼动数据,包括原始眼动数据和眼动事件数据两种类型。其中原始眼动数据包括眼睛位置,注视点位置,瞳孔位置和瞳孔直径;眼动事件数据包括眨眼事件数据,如:眨眼频率,眨眼次数,眨眼持续时间等,注视事件数据,如:注视次数,注视偏差,注视频率等,扫视事件数据,如:扫视长度,扫视频率,扫视次数等;通过眼动仪获取的人们观看视频时的注视轨迹,如图2所示:步骤S2:采用logisticsregression算法进行眼动事件数据的特征提取与融合,包括如下步骤;输入:训练集D1={(x11,y11),(x12,y12),...,(x1m,y1m)};其中x1i表示第i个样本的眼动事件数据,y1i表示第i个样本的标签;属性集A1={a11,a12,...,a1d};其中a1i表示眼动事件的属性包括扫视事件数据,注视事件数据和眨眼事件数据。过程:函数glmfit(D1,A1)(1)其中z=θ0+θ1x11+θ2x12+θ3x13...+θnx1n=θTx(3-1)由公式3-1计算出θ;(2)s=θTx,其中s表示加权后的样本数据;经过logisticsregression算法加权处理的眼动事件数据的折线图如图3所示。步骤S3:采用小波分解和近似熵的算法进行原始眼动数据的特征提取与融合,包括如下步骤;a.通过眼动仪获取人们观看视频时的原始眼动数据b.采用先小波分解后近似熵的方法来计算原始眼动数据的融合特征。输入:训练集D2={(x21,y21),(x22,y22),...,(x2m,y2m本文档来自技高网...

【技术保护点】
1.基于眼动数据的分层特征提取与融合的专注度检测装置,其特征在于,包括依次级联的数据获取模块、注视点追踪模块、扫视轨迹追踪模块、特征提取模块以及专注度检测模块;其中数据获取模块:通过眼动仪获取观看视频时的眼动数据;注视点追踪模块:用于显示观看视频时的注视点移动情况;扫视轨迹追踪模块:用于显示观看视频时的扫视轨迹;特征提取模块:特征提取模块包括眼动数据的特征提取与融合装置,用于处理眼动数据;专注度检测模块:采用利用adaboost算法训练专注度检测模型的装置,用于检测在线视频观看者专注度。

【技术特征摘要】
1.基于眼动数据的分层特征提取与融合的专注度检测装置,其特征在于,包括依次级联的数据获取模块、注视点追踪模块、扫视轨迹追踪模块、特征提取模块以及专注度检测模块;其中数据获取模块:通过眼动仪获取观看视频时的眼动数据;注视点追踪模块:用于显示观看视频时的注视点移动情况;扫视轨迹追踪模块:用于显示观看视频时的扫视轨迹;特征提取模块:特征提取模块包括眼动数据的特征提取与融合装置,用于处理眼动数据;专注度检测模块:采用利用adaboost算法训练专注度检测模型的装置,用于检测在线视频观看者专注度。2.根据权利要求1所述的基于眼动数据的分层特征提取与融合的专注度检测装置,其特征在于,特征提取模块基于logisticsregression算法,用于眼动事件数据的特征提取与融合。3.根据权利要求1或2所述的基于眼动数据的分层特征提取与融合的专注度检测装置,其特征在于,特征提取模块基于小波分解和近似熵算法,用于原始眼动事件数据的特征提取与融合。4.一种采用权利要求1-3任意一项所述检测装置的基于眼动数据的分层特征提取与融合的专注度检测方法,其特征在于,包括以下步骤:步骤S1、基于logisticsregression算法,通过眼动仪采集观看视频时的眼动数据,进行眼动事件数据的特征提取与融合;步骤S2、采用小波分解和近似熵的算法进行原始眼动数据的特征提取与融合;步骤S3、采用adaboost算法进行专注度检测模型的训练。5.根据权利要求4所述的基于眼动数据的分层特征提取与融合的专注度检测方法,其特征在于,步骤S1中,眼动数据包括原始眼动数据和眼动事件数据;原始眼动数据包括眼睛位置、注视点位置、瞳孔位置和瞳孔直径;眼动事件数据包括眨眼事件数据。6.根据权利要求4所述的基于眼动数据的分层特征提取与融合的专注度检测方法,其特征在于,步骤S1中,眼动事件数据的特征提取与融合的具体方法如下:S1-1输入:训练集D1={(x11,y11),(x12,y12),...,(x1m,y1...

【专利技术属性】
技术研发人员:姜沛林刘冰王飞张玉龙
申请(专利权)人:西安交通大学
类型:发明
国别省市:陕西,61

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1