眼动追踪设备的注视点质量评测方法及系统技术方案

技术编号:33700904 阅读:31 留言:0更新日期:2022-06-06 08:09
本发明专利技术公开了一种眼动追踪设备的注视点质量评测方法及系统,该方法包括:获取用户穿戴眼动追踪设备后注视测试屏幕得到的眼动追踪测试数据,测试屏幕用于依序显示多个视觉刺激点,眼动追踪测试数据包括时间戳、视觉刺激点的位置、眼动追踪设备通过预设的眼动算法检测出的视线位置;根据时间戳、视觉刺激点的位置和眼动追踪设备通过预设的眼动算法检测出的视线位置计算各个视觉刺激点对应的注视点的准确度,以及根据眼动追踪设备通过预设的眼动算法检测出的视线位置和时间戳计算各个视觉刺激点对应的注视点的精确度。本发明专利技术能够全面、可靠的对眼动追踪设备的注视点质量进行评测。测。测。

【技术实现步骤摘要】
眼动追踪设备的注视点质量评测方法及系统


[0001]本专利技术涉及虚拟现实
,特别是涉及一种眼动追踪设备的注视点质量评测方法及系统。

技术介绍

[0002]眼动追踪(也称眼球追踪)不仅被广泛用于心理学、交通、神经科学等科研领域,同时也在游戏、工业仿真、医学辅助治疗等领域发挥着重要作用。随着虚拟现实技术的快速发展,眼动追踪逐渐成为虚拟现实里交互和注视点渲染的核心技术之一。
[0003]眼动追踪技术的应用场景对其注视点质量有着较高的要求。眼动追踪注视点质量的最重要参数包括准确度、精确度等。由于这些参数容易受追踪角度、背景亮度、瞳孔变化、眼睛遮挡等多种因素影响,导致目前利用人眼对眼动追踪注视点质量的评测缺乏稳定性,而目前市面上眼动制造商对眼动追踪注视点质量的评测仅提供单一参数,评测全面性较差,且没有统一的评测方法,导致无法有效的对眼动追踪设备的注视点质量进行评测。

技术实现思路

[0004]为此,本专利技术的一个实施例提出一种全面、可靠的眼动追踪设备的注视点质量评测方法,以有效的对眼动追踪设备的注视点质量进行评测。
[0005]根据本专利技术一实施例的眼动追踪设备的注视点质量评测方法,包括:获取用户穿戴所述眼动追踪设备后注视测试屏幕得到的眼动追踪测试数据,所述测试屏幕用于依序显示多个视觉刺激点,所述眼动追踪测试数据包括时间戳、视觉刺激点的位置、所述眼动追踪设备通过预设的眼动算法检测出的视线位置;根据所述时间戳、所述视觉刺激点的位置和所述眼动追踪设备通过预设的眼动算法检测出的视线位置计算各个视觉刺激点对应的注视点的准确度,以及根据所述眼动追踪设备通过预设的眼动算法检测出的视线位置和所述时间戳计算各个视觉刺激点对应的注视点的精确度。
[0006]根据本专利技术实施例的眼眼动追踪设备的注视点质量评测方法,通过测试屏幕依序显示多个视觉刺激点,获取用户穿戴眼动追踪设备后注视测试屏幕得到的眼动追踪测试数据,然后根据眼动追踪测试数据中的时间戳、视觉刺激点的位置和眼动追踪设备通过预设的眼动算法检测出的视线位置计算各个视觉刺激点对应的注视点的准确度,根据眼动追踪设备通过预设的眼动算法检测出的视线位置和时间戳计算各个视觉刺激点对应的注视点的精确度,实现了对眼动追踪的注视点质量全面且系统的评测,评测结果更加可靠、有效,本专利技术不仅可以规范和标准化眼动追踪的测量方法,同时也可以为眼动制造商改善其眼动追踪能力提供重要参考。
[0007]另外,根据本专利技术上述实施例的眼动追踪设备的注视点质量评测方法,还可以具有如下附加的技术特征:进一步地,根据所述时间戳、所述视觉刺激点的位置和所述眼动追踪设备通过预
设的眼动算法检测出的视线位置计算各个视觉刺激点对应的注视点的准确度的步骤中,采用下式计算一目标视觉刺激点对应的注视点的准确度:用下式计算一目标视觉刺激点对应的注视点的准确度:其中,Accuracy表示所述目标视觉刺激点对应的注视点的准确度,n表示采样总数,i表示第i时刻,表示第i时刻目标视觉刺激点的位置向量,表示第i时刻所述眼动追踪设备通过预设的眼动算法检测出的视线位置向量,表示和之间的夹角,abs表示绝对值运算。
[0008]进一步地,根据所述眼动追踪设备通过预设的眼动算法检测出的视线位置和所述时间戳计算各个视觉刺激点对应的注视点的精确度的步骤中,采用下式计算一目标视觉刺激点对应的注视点的精确度:激点对应的注视点的精确度:激点对应的注视点的精确度:其中,RMS表示所述目标视觉刺激点对应的注视点的均方差,SD表示所述目标视觉刺激点对应的注视点的标准差,表示第i+1时刻所述眼动追踪设备通过预设的眼动算法检测出的视线位置向量,表示和之间的夹角,x
i
表示第i时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间x轴的坐标值,表示从第i时刻到第n时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间x轴的坐标值的平均值,y
i
表示第i时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间y轴的坐标值,表示从第i时刻到第n时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间y轴的坐标值的平均值,z
i
表示第i时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间z轴的坐标值,表示从第i时刻到第n时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间z轴的坐标值的平均值。
[0009]进一步地,所述眼动追踪测试数据还包括所述眼动追踪设备通过预设的眼动算法检测出的瞳孔数据;
根据所述时间戳、所述视觉刺激点的位置和所述眼动追踪设备通过预设的眼动算法检测出的视线位置计算各个视觉刺激点对应的注视点的准确度,以及根据所述眼动追踪设备通过预设的眼动算法检测出的视线位置和所述时间戳计算各个视觉刺激点对应的注视点的精确度的步骤之前,所述方法还包括:针对一目标视觉刺激点,采集采样周期内所有时间戳的眼动追踪测试数据;删除采样周期内前预设数量的时间戳的眼动追踪测试数据、删除瞳孔数据丢失的时间戳的眼动追踪测试数据、删除大于第一阈值的时间戳的眼动追踪测试数据、删除大于第二阈值的时间戳的眼动追踪测试数据;根据删除的时间戳的眼动追踪测试数据数量以及采样周期内去除了前预设数量的时间戳后所有时间戳的眼动追踪测试数据数量计算所述目标视觉刺激点的数据丢失率;若所述目标视觉刺激点的数据丢失率大于丢失率阈值,则判定所述目标视觉刺激点为无效测试点,对于无效测试点,不计算其对应的注视点的准确度和精确度。
[0010]进一步地,根据删除的时间戳的眼动追踪测试数据数量以及采样周期内去除了前预设数量的时间戳后所有时间戳的眼动追踪测试数据数量计算所述目标视觉刺激点的数据丢失率的步骤中,采用下式计算所述目标视觉刺激点的数据丢失率:Loss=( N2+ N3+ N4)/(f*t

N1);其中,Loss表示所述目标视觉刺激点的数据丢失率,N1表示采样周期内前预设数量的时间戳的眼动追踪测试数据数量,N2表示瞳孔数据丢失的时间戳的眼动追踪测试数据数量,N3表示大于第一阈值的时间戳的眼动追踪测试数据数量,N4表示大于第二阈值的时间戳的眼动追踪测试数据数量,f表示所述眼动追踪设备的采样频率,t表示所述目标视觉刺激点对应的采样总时长。
[0011]进一步地,所述测试屏幕用于先以第一颜色作为背景颜色,以第二颜色作为各个视觉刺激点的颜色,依序显示多个视觉刺激点;然后以所述第二颜色作为背景颜色,以所述第一颜色作为各个视觉刺激点的颜色,依序显示多个视觉刺激点,所述第一颜色和所述第二颜色不同。
[0012]本专利技术的另一个实施例提出一种全面、可靠的眼动追踪设备的注视点质量评测系统,以有效的对眼动追踪设备的注视点质量进行评测。
[0013]根据本专利技术一实施例的眼动追踪设备的注视点质量评测系统,所述系统包括:数据获取模块,用于获取用户穿戴所述眼动追踪设备后注视测试屏幕得到的眼动追踪测试数据,所述测试屏幕用于依序显示多个视觉刺激点,所述眼动追踪测试数据包括时间戳、视觉刺激点的位置、所述眼本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种眼动追踪设备的注视点质量评测方法,其特征在于,所述方法包括:获取用户穿戴所述眼动追踪设备后注视测试屏幕得到的眼动追踪测试数据,所述测试屏幕用于依序显示多个视觉刺激点,所述眼动追踪测试数据包括时间戳、视觉刺激点的位置、所述眼动追踪设备通过预设的眼动算法检测出的视线位置;根据所述时间戳、所述视觉刺激点的位置和所述眼动追踪设备通过预设的眼动算法检测出的视线位置计算各个视觉刺激点对应的注视点的准确度,以及根据所述眼动追踪设备通过预设的眼动算法检测出的视线位置和所述时间戳计算各个视觉刺激点对应的注视点的精确度。2.根据权利要求1所述的眼动追踪设备的注视点质量评测方法,其特征在于,根据所述时间戳、所述视觉刺激点的位置和所述眼动追踪设备通过预设的眼动算法检测出的视线位置计算各个视觉刺激点对应的注视点的准确度的步骤中,采用下式计算一目标视觉刺激点对应的注视点的准确度:对应的注视点的准确度:其中,Accuracy表示所述目标视觉刺激点对应的注视点的准确度,n表示采样总数,i表示第i时刻,表示第i时刻目标视觉刺激点的位置向量,表示第i时刻所述眼动追踪设备通过预设的眼动算法检测出的视线位置向量,表示和之间的夹角,abs表示绝对值运算。3.根据权利要求2所述的眼动追踪设备的注视点质量评测方法,其特征在于,根据所述眼动追踪设备通过预设的眼动算法检测出的视线位置和所述时间戳计算各个视觉刺激点对应的注视点的精确度的步骤中,采用下式计算一目标视觉刺激点对应的注视点的精确度:度:度:其中,RMS表示所述目标视觉刺激点对应的注视点的均方差,SD表示所述目标视觉刺激点对应的注视点的标准差,表示第i+1时刻所述眼动追踪设备通过预设的眼动算法检
测出的视线位置向量,表示和之间的夹角,x
i
表示第i时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间x轴的坐标值,表示从第i时刻到第n时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间x轴的坐标值的平均值,y
i
表示第i时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间y轴的坐标值,表示从第i时刻到第n时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间y轴的坐标值的平均值,z
i
表示第i时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间z轴的坐标值,表示从第i时刻到第n时刻所述眼动追踪设备通过预设的眼动算法检测出的注视点在空间z轴的坐标值的平均值。4.根据权利要求3所述的眼动追踪设备的注视点质量评测方法,其特征在于,所述眼动追踪测试数据还包括所述眼动追踪设备通过预设的眼动算法检测出的瞳孔数据;根据所述时间戳、所述视觉刺激点的位置和所述眼动追踪设备通过预设的眼动算法检测出的视线位置计算各个视觉刺激点对应的注视点的准确度,以及根据所述眼动追踪设备通过预设的眼动算法检测出的视线位置和所述时间戳计算各个视觉刺激点对应的注视点的精确度的步骤之前,所述方法还包括:针对一目标视觉刺激点,采集采样周期内所有时间戳的眼动追踪测试数据;删除采样周期内前预设数量的时间戳的眼动追踪测试数据、删除瞳孔数据丢失的时间戳的眼动追踪测试数据、删除大于第一阈值的时间戳的眼动追踪测试数据、删除大于第二阈值的时间戳的眼动追踪测试数据;根据删除的时间戳的眼动追踪测试数据数量以及采样周期内去除了前预设数量的时间戳后所有时间戳的眼动追踪测试数据数量计算所述目标视觉刺激点的数据丢失率;若所述目标视觉刺激点的数据丢失率大于丢失率阈值,则判定所述目标视觉刺激点为无效测试点,对于无效测试点,不计算其对应的注视点的准确度和精确度。5.根据权利要求4所述的眼动追踪设备的注视点质量评测方法,其特征在于,根据删除的时间戳的眼动追踪测试数据数量以及采样周期内去除了前预设数量的时间戳后所有时间戳的眼动追踪测试数据数量计算所述目标视觉刺激点的数据丢失率的步骤中,采用下式计算所述目标视觉刺激点的数据丢失率:Loss=( N2+ N3+ N4)/(f*t

N1);其中,Loss表示所述目标视觉刺激点的数据丢失...

【专利技术属性】
技术研发人员:杜博汪阅东舒显豪孙其民
申请(专利权)人:南昌虚拟现实研究院股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1