一种基于眼动和手势的UI界面设计及人机交互方法技术

技术编号:38048366 阅读:11 留言:0更新日期:2023-06-30 11:14
本发明专利技术公开一种基于眼动和手势的UI界面设计及人机交互方法。所述方法包括以下步骤:在对UI界面的功能设计及开发的基础上,为UI界面上适合手势操控的功能区域定制手势指令集;利用显示器上配备的摄像头采集人体图像,进行视线估计和手势识别。本发明专利技术基于眼动实现人体视线焦点的估计以及UI界面意图操控区域的识别,进而基于手势识别结果对意图操控的功能区域进行交互,不但增加了人机交互的便捷性,而且可以根据功能区域不同定制自然交互手势,提高人机交互效率。本发明专利技术采用区域控制方式,无需通过视线焦点来直接捕捉待操作的控件或图标,对头部自然晃动导致的视线焦点的漂移具备更好的鲁棒性。更好的鲁棒性。更好的鲁棒性。

【技术实现步骤摘要】
一种基于眼动和手势的UI界面设计及人机交互方法


[0001]本专利技术涉及人机交互
,更具体地说,涉及一种结合利用计算机视觉下的视线追踪技术、手势识别技术设计出的一种基于眼动和手势的UI界面设计及人机交互方法。

技术介绍

[0002]在人工智能迅速发展的今天,人工智能与人机交互的结合已经成为必然的趋势,这将会给未来人机交互带来巨大的前景。同时将手势和头部姿态结合起来,能更好地探讨新的交互通道存在的应用价值。实现非接触的基于“眼动追踪+手部姿态”的混合控制方法,对于多通道人机交互技术的探索与研究具有重大的意义。
[0003]在现有技术中,倾向于直接利用眼动的视线焦点来捕捉待操作的控件或图标,进而直接把手势指令映射到控件或图标的对应操作。然而,在实际交互过程中(特别是人在移动的车、船上时),由于人头部的自然晃动以及轻微头部晃动引起的视线焦点在屏幕上的大幅度漂移,导致很难通过视线来稳定地捕捉某个待操作控件或图标。与现有的专利技术不同,本专利技术采用区域控制方式,通过一种融合眼动和手势控制的UI交互方式,在UI界面设计过程中就融入了区域控制的理念,使得用户在基于眼动和手势进行交互时不需要刻板生硬地通过视线焦点去捕捉待操作的控件或图标,操控更加自然可靠。本专利技术不单单是公布一种UI交互方式,也是公布一种融合自然交互方式的UI界面设计和开发方法。

技术实现思路

[0004]1.要解决的技术问题
[0005]针对现有技术中存在的问题,本专利技术的目的在于提出了一种基于眼动和手势的UI界面设计及人机交互方法,基于眼动追踪的交互方式,配合手势控制,可以为操作者提供更多的控制选择,减少由于相同设备的长时间单通道控制而导致的工作负载,精神压力和疲劳;从而提高交互效率,也保证了交互过的自然性和可靠性。
[0006]2.技术方案
[0007]为解决上述问题,本专利技术采用如下的技术方案:
[0008]一种基于眼动和手势的UI界面设计及人机交互方法,包括以下步骤:
[0009]S1、在对UI界面的功能设计及开发的基础上,为UI界面上适合手势操控的功能区域定制手势指令集;
[0010]S2、利用显示器上配备的摄像头采集人体图像,进行视线估计和手势识别,得到用户在UI界面上的视线焦点以及识别出的手势类别;
[0011]S3、把视线焦点和手势类别发送给UI,UI根据视线焦点确定用户在UI 界面上的意图操控区域;
[0012]S4、UI界面比对意图操控的功能区域的手势指令集,对收到的手势指令进行有效性判断;
[0013]S5、根据意图操控的功能区域定制的手势指令集,把有效手势指令转化为UI可执行的消息或信号,传递给UI界面;
[0014]S6、UI界面响应执行收到的消息或信号,最终完成手势指令的执行,完成基于眼动和手势的UI界面人机交互。
[0015]作为本专利技术的一种优选方案,所述步骤1中,在UI界面的设计和开发过程中,根据各个功能区域所用控件的不同,可以针对性地定制手势指令集,并实现手势指令到UI可执行指令的转换映射,为UI预留除了传统的鼠标操作之外的自然交互接口。
[0016]作为本专利技术的一种优选方案,所述步骤2中,利用显示器配备的摄像头采集人体图像,对人体头部姿态和眼睛注视方向进行估计,结合摄像头的内外参以及显示屏的尺寸及分辨率,估计出用户眼睛注视方向在屏幕上的视线焦点;对人体手势进行检测和识别,结合手势类型、位置变化、持续时间,识别出手势指令。
[0017]作为本专利技术的一种优选方案,所述步骤3中,满足下述判定条件的功能区域可确认为意图操控区域:用户视线焦点在某一区域内,视线焦点位置变化小于设定阈值;用户视线焦点在某一区域内沿着预定的轨迹移动;用户视线焦点在某一区域停留时间满足时间阈值。
[0018]作为本专利技术的一种优选方案,所述步骤4中,从意图操控的功能区域定制的手势指令集中匹配当前收到的手势指令,不同功能区域的手势指令是不尽相同的,相同的手势指令在不同功能区域代表的功能也可能是不尽相同的,需要基于眼动识别出的意图操控的功能区域进行手势指令的有效性判断。
[0019]作为本专利技术的一种优选方案,所述步骤5中,手势指令是有别于UI可直接执行指令的另一种指令表达形式,需要把手势指令转化为UI可执行的具体指令,例如在使用Qt开发界面时把某个手势指令转化为对应控件的信号,该控件收到信号后即可进行响应。
[0020]作为本专利技术的一种优选方案,所述步骤6中,UI接收到可执行的信号后即可进行响应,响应过程和基于鼠标点击触发的信号的响应过程相同,如此只需要在UI开发过程中开放相应的信号发送接口即可,不显著增加UI开发的工作量。
[0021]3.有益效果
[0022]相比于现有技术,本专利技术的优点在于:
[0023]本专利技术通过将眼动和手势两种自然交互手段结合起来,实现多通道交互,丰富用户的输入操作方式,使得操作者能够与UI界面进行更加自然、便捷的交互,是交互控制过程更加高效、可靠。本方法同时可以适应多种尺寸的显示设备,使用场景广泛。
[0024]附图/表说明
[0025]图1为本专利技术一种基于眼动和手势的UI界面设计及人机交互方法的工作流程图;
[0026]图2为本专利技术一种基于眼动和手势的UI界面设计及人机交互方法的工作流程的另一种图示;
[0027]图3为本专利技术一种基于眼动和手势的UI界面设计及人机交互方法实施例的图例;
[0028]表1为本专利技术一种基于眼动和手势的UI界面设计及人机交互方法实施例支持的手势指令集。
具体实施方式
[0029]下面将结合本专利技术实施例中的附图对本专利技术实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例,基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0030]在本专利技术的描述中,需要说明的是,术语“上”、“下”、“内”、“外”、“顶 /底端”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本专利技术和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本专利技术的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
[0031]在本专利技术的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“设置有”、“套设/接”、“连接”等,应做广义理解,例如“连接”,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本专利技术中的具体含义。
[0032]实施例:
[0033]请参阅图1

3,一种基于眼动和手势的UI界面设计及人机交互方法,包括以下本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于眼动和手势的UI界面设计及人机交互方法,其特征在于,包括以下步骤:S1、在对UI界面的功能设计及开发的基础上,为UI界面上适合手势操控的功能区域定制手势指令集;S2、利用显示器上配备的摄像头采集人体图像,进行视线估计和手势识别,得到用户在UI界面上的视线焦点以及识别出的手势类别;S3、把视线焦点和手势类别发送给UI,UI根据视线焦点确定用户在UI界面上的意图操控区域;S4、UI界面比对意图操控的功能区域的手势指令集,对收到的手势指令进行有效性判断;S5、根据意图操控的功能区域定制的手势指令集,把有效手势指令转化为UI可执行的消息或信号,传递给UI界面;S6、UI界面响应执行收到的消息或信号,最终完成手势指令的执行,完成基于眼动和手势的UI界面人机交互。2.根据权利要求1所述的基于眼动和手势的UI界面设计及人机交互方法,其特征在于,所述步骤1中,在UI界面的设计和开发过程中,根据各个功能区域所用控件的不同,可以针对性地定制手势指令集,并实现手势指令到UI可执行指令的转换映射,为UI预留除了传统的鼠标操作之外的自然交互接口。3.根据权利要求1所述的基于眼动和手势的UI界面设计及人机交互方法,其特征在于,所述步骤2中,利用显示器配备的摄像头采集人体图像,对人体头部姿态和眼睛注视方向进行估计,结合摄像头的内外参以及显示屏的尺寸及分辨率,估计出用户眼睛注视方向在屏幕上的视线焦点;对人体手势进行检...

【专利技术属性】
技术研发人员:朱光明张亮
申请(专利权)人:西安电子科技大学青岛计算技术研究院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1