【技术实现步骤摘要】
一种基于眼动追踪技术的眼动交互方法、系统及设备
本专利技术属于眼动追踪
,尤其涉及一种基于眼动追踪技术的眼动交互方法、系统及设备。该系统利用人机界面(HMI),可穿戴计算,人体生理学,图像处理和深度学习等领域的技术
技术介绍
所述近眼显示设备(HMD)或车载显示器还包括电子显示器和光学组件。HMD可以是例如混合现实(MixedReality)—MR眼镜、增强现实(AugmentedReality)—AR眼镜,例如Microsoft,Vuzix和DigiLens制造的显示器;虚拟现实(VirtualReality)—VR眼镜,例如Sony,Samsung,Oculus,CarlZeiss制造的显示器;扩展现实(ExtendedReality)—XR眼镜或其某种组合;车载显示器可以包括但不限于平行显示器(HUD)或具有增强现实系统的平行显示器(AR-HUD),驾驶员信息控制台(DIC),基于投影的显示器,信息娱乐单元或主机单元(HU)的显示器。和类似的设备。眼动追踪可用于查看此类显示并指定位置信息。但是,在正常的人类活动中,眼睛也被广泛使用。目前,近眼显示设备采用的交互方式中,通过眼动追踪的交互方式以其隐蔽性高、交互方便快捷、同时兼具虹膜识别身份验证等优点,相较于其他的交互方式更具发展潜力,但是如今市面上的近眼显示设备中的眼动追踪交互仍然存在一些亟待解决的问题。目前的眼动追踪交互是基于眼动追踪装置捕获眼睛注视点坐标,将坐标位置映射在交互界面上,以光标形式呈现,用户通过眼睛视点移动控制光标选择目标,并 ...
【技术保护点】
1.一种基于眼动追踪技术的眼动交互方法,其特征在于,所述基于眼动追踪技术的眼动交互方法采用设置感应区域被动吸附注视光标或眼动交互意图预测主动吸附注视光标对目标进行选择;/n所述设置感应区域被动吸附注视光标对目标进行选择的方法通过为不同的目标设置相应感应区域即有效点击区域,当光标接触或覆盖某一目标的感应区域时,或/和同时检测是否存在眼颤、扫视距离是否超过阈值等眼动行为,若存在则动吸附于该目标上,及通过检测用户的眼球状态和感应区的接触情况,光标被动吸附在交互目标上;/n所述眼动交互意图预测主动吸附注视光标对目标进行选择的方法采用人工智能的机器学习算法对用户眼睛运动行为数据进行训练,对数据进行过滤、处理和分析,训练出眼动行为规律,获得用户主观意识眼动交互意图模型,基于所述眼动交互意图模型对用户正在进行的眼动行为进行预测下一步的眼动着陆点,并系统主动选中着陆点附近吸附目标。/n
【技术特征摘要】
1.一种基于眼动追踪技术的眼动交互方法,其特征在于,所述基于眼动追踪技术的眼动交互方法采用设置感应区域被动吸附注视光标或眼动交互意图预测主动吸附注视光标对目标进行选择;
所述设置感应区域被动吸附注视光标对目标进行选择的方法通过为不同的目标设置相应感应区域即有效点击区域,当光标接触或覆盖某一目标的感应区域时,或/和同时检测是否存在眼颤、扫视距离是否超过阈值等眼动行为,若存在则动吸附于该目标上,及通过检测用户的眼球状态和感应区的接触情况,光标被动吸附在交互目标上;
所述眼动交互意图预测主动吸附注视光标对目标进行选择的方法采用人工智能的机器学习算法对用户眼睛运动行为数据进行训练,对数据进行过滤、处理和分析,训练出眼动行为规律,获得用户主观意识眼动交互意图模型,基于所述眼动交互意图模型对用户正在进行的眼动行为进行预测下一步的眼动着陆点,并系统主动选中着陆点附近吸附目标。
2.如权利要求1所述基于眼动追踪技术的眼动交互方法,其特征在于,所述设置感应区域被动吸附注视光标对目标进行选择的方法包括:
步骤一、显示系统呈现虚拟交互目标;
步骤二、设备的眼动追踪模组捕获用户注视点位置坐标,注视点以光标的形式映射在显示设备屏幕或/和三维空间中;
步骤三、设备客户端实时检测注视点光标位置与虚拟交互目标的感应区之间的是否碰撞;
步骤四、在与感应区发生碰撞时,设备客户端检测用户发生注视时间超过一定阈值、扫视距离在预设阈值范围内、在感应区域附近反复眼颤、形成注视点云、特殊的视线运动轨迹眼睛行为数据,或/和用户情绪;
步骤五、根据第四步的检测结果,将交互光标被动吸附于虚拟目标并选中,和/或呈现突显效果;
步骤六、当眼动光标如上述方法选中目标按钮后,MR眼镜的反馈装置向用户发出反馈信息,并通过其他交互模组或者直接检测眼睛的动作进行点击操作。
3.如权利要求2所述基于眼动追踪技术的眼动交互方法,其特征在于,步骤二中,所述眼动追踪模组捕获用户眼睛注视点坐标和视线运动轨迹及相关眼球行为数据的眼动追踪硬件技术方法包括:
(1)利用多个不可见红外光源、微型摄像头、反光热镜、光波导镜片及其他硬件通过接收眼睛反射光线,计算瞳孔中心与角膜中心的连线进行眼动追踪;
(2)利用不可见红外光源、光敏传感器、MEMS微机械系统反射镜、光波导镜片捕获眼睛图像或者计算视网膜的影像或者视网膜反射光的强度进行眼动追踪;
(3)通过发射结构光对眼睛建模,计算眼睛模型的视觉中心进行眼动追踪;
(4)利用不可见红外光源、光敏传感器、MEMS微机械系统反射镜、光波导镜片接收眼睛角膜的反射光线,计算角膜中心反射的强度最大的光来进行眼动追踪。
4.如权利要求2所述基于眼动追踪技术的眼动交互方法,其特征在于,步骤二中,所述眼动数据为由眼动追踪模组采集的用户眼睛的运动数据转化成的实时变化的数字信号;所述眼动数据包括眼睛注视点的x,y,z坐标、视觉深度、眼跳频率、眼跳距离、运动加速度、眼颤、注视时长、眨眼、瞳孔直径变化等,并且可以将眼动数据分析成热力图、视觉轨迹图等分析图表,所述滤波算法包括限幅滤波法即程序预判滤波法、中位值滤波法、算术平均滤波法、递推平均滤波法即滑动平均滤波法、中位值平均滤波法即防脉冲干扰平均滤波法、限幅平均滤波法、一阶滞后滤波法、加权递推平均滤波法、消抖滤波法、限幅消抖滤波法、IR数字滤波器。
5.如权利要求2所述基于眼动追踪技术的眼动交互方法,其特征在于,步骤二中,所述注视点以光标的形式映射显示设备屏幕或物理/虚拟三维空间中包括:
将用户眼睛视线坐标映射于MR眼镜的混合现实空间中或/和光学显示器坐标系中,以光标的形式呈现;
将稳定的实时动态变化的眼动数据输入至一种动态光标的几何中心上,并实时映射于设备的光学成像屏幕上,得到运动轨迹稳定、平滑的动态眼动光标;
所述动态光标为在光学成像屏幕上呈现的肉眼可见的图形;或不可见的隐形光标;或者为在交互时可见,不交互时不可见的图形;
所述眼动光标可具有圆形、矩形、圆角矩形、三角形、圆角三角形、以及其他多边形/圆角多边形形状;所述眼动光标的大小根据用户的使用习惯或者交互界面的设计和布局确定。
6.如权利要求2所述基于眼动追踪技术的眼动交互方法,其特征在于,步骤三中,所述虚拟交互目标包括MR眼镜的光学成像屏幕上呈现的可点击的交互目标象,及所有可进行点击交互的按钮、UI、图片、文字菜单;或通过图像识别模组识别实际的物体。
7.如权利要求2所述基于眼动追踪技术的眼动交互方法,其特征在于,步骤三中,所述设备客户端实时检测注视点光标位置与虚拟目标的感应区之间的是否碰撞的方法具体是:客户端软件或内部系统软件在运行时加载检测眼动光标与交互目标及其感应区之间接触情况的可执行代码程序组件;另一种实施例中网页浏览器可能需要安装某种插件用于光标与交互目标的接触检测,所述代码程序组件可由客户端/系统开发时即配置完成,或者由是一种API可调用程序接口实现。
8.如权利要求2所述基于眼动追踪技术的眼动交互方法,其特征在于,步骤三中,所述眼动光标与各个交互目标的感应区之间的接触情况的实时检测方法包括:通过软件程序实现眼动光标与任意交互目标感应区的接触反馈,反馈信息包括光标与目标感应区接触的起止时间、光标与各个目标感应区重叠部分的面积、光标到交互目标的几何中心距离等,通过上述反馈信息检测接触情况。
9.如权利要求2所述基于眼动追踪技术的眼动交互方法,其特征在于,步骤三中,所述交互目标设置感应区的设置方法具体为:自动设置感应区域插件首先在编程界面中检测交互指令的代码和/或定义UI图层的代码,确定UI界面的交互目标,再经开发工程师确认后,根据UI图层的几何中心坐标、大小、形状、层级自动添加眼动感应区域;客户端软件或内部系统软件在启动/运行时加载为所有可点击的交互目标设置感应区的可执行代码程序组件,网页浏览器可能需要安装某种插件用于交互目标的感应区设置;
所述感应区是指交互目标的有效点击区域,由所述脚本/插件按目标大小和形状的一定比例或者根据目标的分布按泰森多边形算法进行设置,感应区一般设置不可见,也包括可见的设置;所述一定比例根据交互目标的大小取不小于1的任何合适的比例。
10.如权利要求2所述基于眼动追踪技术的眼动交互方法,其特征在于,步骤四中,所述接触/碰撞情况包括:在与感应区发生碰撞时,设备客户端检测用户发生注视时间超过一定阈值、反复眼颤、形成注视点云、扫视距离、特殊的视线运动轨迹等眼睛行为数据中;所述眼睛行为数据是指眼动追踪模组采集的用户眼睛运动过程中信息,将眼睛的运动信息转化为数字信号,并且是实时变化的,其眼动追踪模组被配置为检测的眼睛行为数据包括但不限于:眼睛注视点的x,y,z坐标、视觉深度、眼跳频率、眼跳距离、运动加速度、眼颤、注视时长、眨眼、瞳孔直径变化,并且将眼动数据分析成热力图、视觉轨迹图分析图表。
11.如权利要求10所述基于眼动追踪技术的眼动交互方法,其特征在于,所述注视点云具体为:注视点云为多个检测到的注视位置形成的云状注视范围,注视点云作为单个光标或作为动态光标出现;随着检测到的多个注视位置的变化而变化的形状;注视点数量的是任意数量和任意采样率来收集检测到的注视位置的序列,任意持续时间。
12.如权利要求2所述基于眼动追踪技术的眼动交互方法,其特征在于,步骤五中,所述眼动光标被动吸附于交互目标并选中是指在程序处理层面选中该交互目标作为下一步的计算目标;当步骤四判断用户对该交互按钮具有交互意图时,则将眼动光标脱离原有注视点映射关系,主动吸附在交互目标上,对交互按钮进行选择,其中交互目标可以是三维模型、平面图像等,眼动光标将吸附到几何中心上;
系统根据此时发生眼颤的注视位置为中心启动突显效果,突显效果具体为出现一个鱼眼球形/六边形的窗口,窗口内所显示内容为当前注视位置放大一定比例之后的影像;突显窗口不会随着注视点位置的移动而改变位置,注视交互的光标可以在突显窗口更精确选择放大后交互目标;
当眼动追踪装置检测眼睛的注视点离开突显窗口,MR眼镜的眼动追踪装置通过检测眼睛离开感应区后的第一眼跳落点位置与突显窗口中心点距离超过一定阈值,则可关闭突显窗口,或停止吸附状态时。
13.如权利要求2所述基于眼动追踪技术的眼动交互方法,其特征在于,步骤六中,所述通过其他交互模组或者直接检测眼睛的动作进行点击操作包括:
1)通过移动控制器进行点击操作;
所述移动控制器包括:多自由度的按键式控制器、指尖控制器、戒指控制器、手环控制器;
2)通过手势识别模组进行点击操作;
所述手势识别模组包括:手势识别摄像头或结构光摄像机;
所述手势识别摄像头或结构光摄像机捕获用户手部的动作图像,通过计算机比对识别特定的手势进行交互;
3)通过语音识别模组进行点击操作;
所述语音识别模组包括:一种有声语音识别模组包括录音装置、声音过滤器、语音识别装置或者一种无声语言识别模组包括肌肉电接收和识别装置。
14.如权利要求2所述的基于眼动追踪技术的眼动交互方法,其特征在于,所述基于眼动追踪技术的眼动交互方法为真实物理世界中的物体建立可点击的交互目标的方法包括:
通过MR眼镜前端的图像识别摄像头获取用户前方的真实环境画面,将视频画面/图像画面信息转化为电信息;
进行图像信息预处理;
进行特征抽取和选择,输入图像卷积神经网络模型训练,得到图像识别模型,图像识别模型识别真实物理世界中的物体后,通过设备的光学成像屏幕为这些物体边缘叠加虚拟全息交互边框;
用户通过眼动追踪控制眼动光标与该物体进行交互。
15.如权利要求1所述的基于眼动追踪技术的眼动交互方法,其特征在于,所述基于眼动追踪技术的眼动交互方法基于AI眼动交互意图预测模型的主动选择交互方法包括以下步骤:
第一步,显示系统呈现...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。