综合容错的眼动追踪交互方法及系统技术方案

技术编号:36161816 阅读:9 留言:0更新日期:2022-12-31 20:10
本发明专利技术提供了一种综合容错的眼动追踪交互方法及系统,其中,方法包括:在预设场景中让被试者坐在固定好的眼动数据采集设备前;采集被试者注视不同方位的信息图时的眼动特征作为第一目光焦点数据,采集被试者注视放大特定倍数的信息图时的眼动特征作为第二目光焦点数据,并同步记录信息图的相对位置信息;将第一目光焦点数、第二目光焦点数据以及信息图的相对位置信息进行同步分析,获取有效数据;将有效数据通过预设线性回归模型进行展示,从而对注视相同目标热点时不同位置、不同角度、不同轨迹的目光焦点数据进行预测,以提高注视同一热点信息时存在的多重目光焦点的可能性,从而提高眼动人机交互方法的容错率。而提高眼动人机交互方法的容错率。而提高眼动人机交互方法的容错率。

【技术实现步骤摘要】
综合容错的眼动追踪交互方法及系统


[0001]本文件涉及人机交互
,尤其涉及一种综合容错的眼动追踪交互方法及系统。

技术介绍

[0002]在现有人机感官交互研究的方法中,眼动追踪技术可以通过记录用户的目光焦点和眼动轨迹确定瞳孔位置和目光方向,从而判别用户正在关注的目标热点信息。
[0003]人类眼睛视角通常是124度,集中注意力时约25度,正确识别信息时在10~20度。因此其标准视线下目光焦点始终存在不确定性,10度均为敏感区,该发散的有效视域内任何信息都可能是人投入关注的目标热点。由于目光焦点数据始终存在10度视线锥的误差,以此评定的目标热点信息无法与之精准匹配,大幅降低了眼动人机交互系统的正确性和精准性,从而存在一定的失效率。
[0004]目前人机交互眼动跟踪方法在数据计算中均通过对用户视线的凝视点和方向进行测量完成视线追踪,较为主流的眼动跟踪方法有瞳孔角膜反射法、角膜反射矩阵法以及椭圆法线法。该类方法虽可完成眼动特征检测但仍存在以下问题:
[0005]1.由于目光焦点存在不确定性,人机交互时设备提取眼动特征的数据精度较低,无法与评定的目标热点信息精准匹配;
[0006]2.现有的眼动人机交互设备算法容错率较低,注视焦点与屏幕元素相关联时存在困难,算法的细微偏差会直接影响交互系统的跟踪精度;
[0007]统计学通过搜索、整理、分析、描述数据等手段,以达到推断所测对象的本质,甚至预测对象未来,因此可以凭借统计学相关方法来计算有效目光焦点和实际目标热点的关联度,提高允许匹配错误出现的范围和概率。

技术实现思路

[0008]为提高现有光学条件下人机交互方法对目光焦点的跟踪精度,保证被专注目标热点的准确性和有效性,本专利技术旨在基于统计学规律计算目光焦点与目标热点间的关联度,减小目光焦点对人机交互系统产生不稳定的概率,提高眼动人机交互方法的容错率。
[0009]本专利技术提供了一种综合容错的眼动追踪交互方法,包括:
[0010]S1、在预设场景中让被试者坐在固定好的眼动数据采集设备前;
[0011]S2、将信息图分别放置在被试者的不同方位,采集被试者注视不同方位的信息图时的眼动特征作为第一目光焦点数据,并同步记录信息图的相对位置信息;
[0012]S3、将信息图上的文字扩大特定倍数后,采集被试者注视信息图时的眼动特征作为第二目光焦点数据,并同步记录信息图的相对位置信息;
[0013]S4、将第一目光焦点数、第二目光焦点数据以及信息图的相对位置信息进行同步分析,获取有效数据;
[0014]S5、将有效数据通过预设线性回归模型进行展示,从而对注视相同目标热点时不
同位置、不同角度、不同轨迹的目光焦点数据进行预测。
[0015]本专利技术提供了一种综合容错的眼动追踪交互系统,包括:
[0016]采集模块,用于通过眼动数据采集设备采集被试者的眼动特征数据;
[0017]数据分析模块,用于对眼动特征数据进行分析,获取有效数据;
[0018]数据预测模块,用于将有效数据通过预设线性回归模型进行展示,从而对注视相同目标热点时不同位置、不同角度、不同轨迹的目光焦点数据进行预测。
[0019]采用本专利技术实施例在眼动特征检测中对目光焦点数据如注视时间,次数、眼跳轨迹、眼跳时间、瞳孔变化大小、眨眼频率等进行提取分析记录,采用多重指标分析记录比对,弥补人目光视线锥角度造成目光焦点不确定性的影响;将软件算法、机械、电子、光学等各种处理识别手段结合统计学规律增强目光焦点对目标热点的学习算法,使人机交互系统的失效率降低到一个可接受的数值,大幅提升目光焦点追踪至目标热点信息的准确有效性,提供人机交互更高的跟踪精度。
附图说明
[0020]为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0021]图1为本专利技术实施例的综合容错的眼动追踪交互方法的流程图;
[0022]图2为本专利技术实施例的综合容错的眼动追踪交互系统的示意图。
具体实施方式
[0023]为了使本
的人员更好地理解本说明书一个或多个实施例中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明书一个或多个实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本文件的保护范围。
[0024]方法实施例
[0025]本专利技术实施例提供了一种综合容错的眼动追踪交互方法,图1为本专利技术实施例的综合容错的眼动追踪交互方法的流程图,根据图1所示,本专利技术实施例的综合容错的眼动追踪交互方法具体包括:
[0026]S1、在预设场景中让被试者坐在固定好的眼动数据采集设备前;步骤S1具体包括:
[0027]在测试环境中固定眼动数据采集设备、用于被试者注视目标热点的信息图,被试者坐在所述眼动数据采集设备前接受眼动数据采集。
[0028]S2、将信息图分别放置在被试者的不同方位,采集被试者注视不同方位的信息图时的眼动特征作为第一目光焦点数据,并同步记录信息图的相对位置信息;步骤S2具体包括:
[0029]要求被试者进行信息图注视:将信息图分别置于被试者的左前方、右前方、正前方,每处位置停留20秒钟,此部分可大幅改变被试者注视目标热点时的目光焦点角度。使用
眼动人机设备同步记录信息图的相对位置与被试者注视时的眼动特征,包括注视时间,次数、眼跳轨迹、眼跳时间、瞳孔变化大小、眨眼频率等;
[0030]S3、将信息图上的文字扩大特定倍数后,采集被试者注视信息图时的眼动特征作为第二目光焦点数据,并同步记录信息图的相对位置信息;步骤S3具体包括:重复步骤S2的操作,同时将信息图上的文字扩大一倍,小幅改变被试者注视目标热点时的目光焦点角度;
[0031]S4、将第一目光焦点数、第二目光焦点数据以及信息图的相对位置信息进行同步分析,获取有效数据;步骤S4具体包括:
[0032]将所述第一目光焦点数、第二目光焦点数据以及信息图的相对位置信息同步分析记录,在同一条时间轴上对注视同一目标热点时的目光数量的特征和数量关系进行纵向对比,找出数据的差异,利用算法进行误差分析,得出有效的数据。
[0033]S5、将有效数据通过预设线性回归模型进行展示,从而对注视相同目标热点时不同位置、不同角度、不同轨迹的目光焦点数据进行预测。步骤S5具体包括:
[0034]建立主实相同目标热点时不同位置、不同角度以及不同轨迹的目光焦点数据的回归模型;
[0035]将所述有效的数据以线性回归模型展示,对人本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种综合容错的眼动追踪交互方法,其特征在于,包括:S1、在预设场景中让被试者坐在固定好的眼动数据采集设备前;S2、将信息图分别放置在被试者的不同方位,采集被试者注视不同方位的信息图时的眼动特征作为第一目光焦点数据,并同步记录信息图的相对位置信息;S3、将信息图上的文字扩大特定倍数后,采集被试者注视信息图时的眼动特征作为第二目光焦点数据,并同步记录信息图的相对位置信息;S4、将所述第一目光焦点数、第二目光焦点数据以及信息图的相对位置信息进行同步分析,获取有效数据;S5、将所述有效数据通过预设线性回归模型进行展示,从而对注视相同目标热点时不同位置、不同角度、不同轨迹的目光焦点数据进行预测。2.根据权利要求1所述的方法,其特征在于,所述步骤S1具体包括:在测试环境中固定眼动数据采集设备、用于被试者注视目标热点的信息图,被试者坐在所述眼动数据采集设备前接受眼动数据采集。3.根据权利要求1所述的方法,其特征在于,所述步骤S2中将信息图分别放置在被试者的不同方位具体包括:将信息图分别置于被试者的左前方、右前方、正前方,被试者目光在每处信息图位置停留20秒钟。4.根据权利要求1所述的方法,其特征在于,所述步骤S2中采集被试者注视不同方位的信息图时的眼动特征具体包括:采集被试者的注视时间、次数、眼跳轨迹、眼跳时间、瞳孔变化大小以及眨眼频率。5.根据权利要求1所述的方法,其特征在于,所述步骤S4具体包括:将所述第一目光焦点数、第二目光焦点数据以及信息图的相对位置信息同步分析记录,在同一条时间轴上对注视同一目标热点时的目光数量的特征和数量关系进行纵向对比,找出数据的差异,利用算法进行误差分析,得出有效的数据。6.根据权利要求1所述的方法,其特征在于,所述步骤S5具体包括:建立主实相同目标热点时不同位置、不同角度以及不同轨迹的目光焦...

【专利技术属性】
技术研发人员:朱青刘汕王林高宝俊樊天放杨杰
申请(专利权)人:西安交通大学华中科技大学武汉大学陕西百乘网络科技有限公司辽宁省视讯技术研究有限公司
类型:发明
国别省市:

相关技术
    暂无相关专利
网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1