【技术实现步骤摘要】
与对象进行较少停留、无手动交互的方法与系统
本公开总的来说涉及用于特别在增强现实(AR)或虚拟现实(VR)环境中进行较少停留、无手动交互的方法、系统和装置。
技术介绍
若干不同眼睛追踪系统在本领域中是已知的。这些系统可例如用于允许用户通过看着计算机显示器处或在增强现实(AR)/虚拟现实(VR)环境中的一个位置而指示此位置。眼睛追踪系统可捕捉用户面部的图像,并且接着使用图像处理以从用户面部提取关键特征,例如,瞳孔中心以及来自对用户面部照明的照明器的闪烁。所提取的特征可接着用于确定用户正看着显示器何处。此外,用户可通过以下方式而与计算机显示器上或AR/VR环境中的对象(例如,按钮、开关、按键、UI元素等)交互:将眼睛驻留或停留在对象上直到其激活为止。停留是使眼睛固定在计算机显示器或AR/VR环境的一部分上并使眼睛保持在此处持续具体时间量的动作。所述时间量被称为停留时间。通过停留进行的交互在用户的手无法使用(例如,外科医生、工程师、残疾人等)但用户仍需要与计算机显示器上或AR/VR环境中的UI元素交互的许多情况下是有用的。然而,在需要与若干对象的长期交互的情况下,重复的停留变得既对用户的眼睛造成疲劳,又耗时且乏味,这是因为用户无法影响停留时间。因此,在使用眼睛追踪而与计算机显示器上或AR/VR环境中的可选择对象交互方面需要改进。
技术实现思路
本专利技术的目标是解决上文概述的问题和议题中的至少一些。本专利技术的实施例的目标是提供一种装置和方法,其通过以下方式对于与可选择对象的交互而改善用 ...
【技术保护点】
1.一种用于与通过显示装置(10)显示的可选择对象(110)交互的方法,所述方法包括以下步骤:/n获得(202)用户(300;500;600;1000)的视线会聚距离和注视方向,所述注视方向位于由所述显示装置(10)限定的视域中;/n确定(204)所述注视方向是否与所述可选择对象(110)一致;并且如果一致,/n那么检测(206)所述视线会聚距离的改变;以及/n如果所检测的所述视线会聚距离的改变超过预定阈值(Δd),那么与所述可选择对象(110)交互(208)。/n
【技术特征摘要】
20190515 SE 1950580-91.一种用于与通过显示装置(10)显示的可选择对象(110)交互的方法,所述方法包括以下步骤:
获得(202)用户(300;500;600;1000)的视线会聚距离和注视方向,所述注视方向位于由所述显示装置(10)限定的视域中;
确定(204)所述注视方向是否与所述可选择对象(110)一致;并且如果一致,
那么检测(206)所述视线会聚距离的改变;以及
如果所检测的所述视线会聚距离的改变超过预定阈值(Δd),那么与所述可选择对象(110)交互(208)。
2.根据权利要求1所述的方法,其中检测(206)步骤还包括:
获得指示所述用户(300;500;600;1000)与所述可选择对象(110)之间的距离的对象距离(dO);以及
获得触发距离(dT),
其中所述对象距离(dO)与所述触发距离(dT)之间的差对应于所述预定阈值(Δd)。
3.根据权利要求2所述的方法,其中检测(206)步骤还包括:
当所述注视方向与所述可选择对象(110)一致并且所述视线会聚距离在包括所述对象距离(dO)的预定范围内时,使所述可选择对象(110)准备好交互,并且
其中交互(208)步骤还包括:
与所准备好的可选择对象(110)交互(208)。
4.根据权利要求3所述的方法,其中使所述可选择对象(110)准备好包括改变所述可选择对象(110)的显示外观。
5.根据前述权利要求中任一项所述的方法,还包括:
显示所述用户(300;500;600;1000)的所述注视方向和/或对应于所述预定阈值(Δd)的触发距离(dT)的表示(120;320;520;620;820)。
6.根据前述权利要求中任一项所述的方法,其中在所述会聚距离的所述改变的检测期间,仅在发生以下情况时才执行与所述可选择对象(110)的交互:
所述注视方向保持与所述可选择对象(110)一致。
7.根据权利要求1到5中任一项所述的方法,其中在所述会聚距离的所述改变的检测期间,仅在发生以下情况时才执行与所述可选择对象(110)的交互:
所述注视方向与所述显示装置(10)所显示的并且不同于所述可选择对象(110)的第二对象一致,或者
所述注视方向的预定改变被检测到。
8.根据前述权利要求中任一项所述的方法,其中获得所述用户(300;500;600;1000)的所述视线会聚距离和所述注视方向的步骤包括:通过眼睛追踪器(1025)获取所述用户(300;500;600;1000)的每只眼睛的注视数据,并基于所获取的注视数据来计算所述视线会聚距离和所述注视方向。
9.根据前述权利要求中任一项所述的方法,其中所述注视方向是基于通过组合所述用户(300;500;600;1000)的左眼(100;501;601;801)和右眼(102;502;602;802)的注视方向(101,103;301;503,504;603,604;803,804)而获得的组合注视方向(CGD)。
10.根据前述权利要求中任一项所述的方法,其中所述会聚距离随着基于所获取的所述左眼(100;501;601;801)和所述右眼(102;502;602;802)的瞳孔位置或视线原...
【专利技术属性】
技术研发人员:安德鲁·拉特克利夫,
申请(专利权)人:托比股份公司,
类型:发明
国别省市:瑞典;SE
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。