基于头戴式眼动模组的眼动追踪校准方法技术

技术编号:23287530 阅读:32 留言:0更新日期:2020-02-08 17:44
本申请所述基于头戴式眼动模组的眼动追踪校准方法,使用具有两部相机的头戴式模组,通过某一使用者注视屏幕播放的校准视频对该模组进行自动校准,以实现降低对用户要求和校准过程复杂程度、校准效率较高的设计目的。包含以下步骤:(1)使用者头戴一个眼动模组,所述眼动模组包括两个相机,分别是拍摄使用者眼部的眼部相机和拍摄显示屏幕的世界相机;(2)在屏幕上播放含有一个运动物体的校准视频,使用者注视该校准视频;(3)使用视频显著性检测方法得到校准视频对应的显著图集,并根据显著图集和视频窗口位置计算运动物体在屏幕中的位置;(4)使用未校准的眼动追踪算法计算多帧眼部图像对应的用户注视向量;(5)结合多帧校准视频、及其对应的注视向量和屏幕图像,计算注视向量与屏幕之间的映射关系,以此计算出注视向量对应的屏幕注视点,实现自动校准。

Eye tracking and calibration method based on headworn eye movement module

【技术实现步骤摘要】
基于头戴式眼动模组的眼动追踪校准方法
本专利技术涉及一种头戴式眼动模组以及基于模组进行眼动追踪算法的自动校准方法,属于计算机视觉和计算机图形学领域。
技术介绍
随着眼动追踪技术的快速发展,眼动追踪在计算机视觉领域的关注度也日益增加。目前大多头戴式眼动模组需要在使用前针对每个使用者实现校准。校准的原因有两个:首先,大部分头戴式的眼动模组仅能估计出使用者注视向量,而使用眼动模组实际上需要计算注视点,要计算注视点需要知道注视向量到屏幕的映射关系,映射关系由校准过程计算;其次,目前主流的头戴式眼动模组仅能估计用户眼球的光轴,并根据光轴计算用户注视点,然而实际上用户注视点是由视轴决定的,视轴和光轴之间存在夹角,且该夹角大小因人而异。若使用光轴估计注视点,则估计注视点与实际注视点误差会相对较大,因此需要校准。现有较常见主流的眼动追踪模组需要用户凝视多个校准点,进行用户校准,此种校准方式需要用户集中注意力去看屏幕上的点,过程较为繁琐,对用户的要求较高。有鉴于此,特提出本申请。
技术实现思路
本申请所述的基于头戴式眼动模组的本文档来自技高网...

【技术保护点】
1.一种基于头戴式眼动模组的眼动追踪校准方法,其特征在于:包含以下步骤,/n(1)使用者头戴一个眼动模组,所述眼动模组包括两个相机,分别是拍摄使用者眼部的眼部相机和拍摄显示屏幕的世界相机;/n(2)在屏幕上播放含有一个运动物体的校准视频,使用者注视该校准视频,两个相机实时地拍摄使用者眼部和显示屏幕;/n(3)使用视频显著性检测方法得到校准视频对应的显著图集,并根据显著图集和视频窗口位置计算运动物体在屏幕中的位置;/n(4)使用未校准的眼动追踪算法计算多帧眼部图像对应的用户注视向量;/n(5)结合多帧校准视频、及其对应的注视向量和屏幕图像,计算注视向量与屏幕之间的映射关系,根据此映射关系计算出注...

【技术特征摘要】
1.一种基于头戴式眼动模组的眼动追踪校准方法,其特征在于:包含以下步骤,
(1)使用者头戴一个眼动模组,所述眼动模组包括两个相机,分别是拍摄使用者眼部的眼部相机和拍摄显示屏幕的世界相机;
(2)在屏幕上播放含有一个运动物体的校准视频,使用者注视该校准视频,两个相机实时地拍摄使用者眼部和显示屏幕;
(3)使用视频显著性检测方法得到校准视频对应的显著图集,并根据显著图集和视频窗口位置计算运动物体在屏幕中的位置;
(4)使用未校准的眼动追踪算法计算多帧眼部图像对应的用户注视向量;
(5)结合多帧校准视频、及其对应的注视向量和屏幕图像,计算注视向量与屏幕之间的映射关系,根据此映射关系计算出注视向量对应的屏幕注视点,实现自动校准。


2.根据权利要求1所述的基于头戴式眼动...

【专利技术属性】
技术研发人员:陆峰蒋雨薇于洋
申请(专利权)人:北京航空航天大学青岛研究院
类型:发明
国别省市:山东;37

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1