交互控制方法、装置、存储介质和计算机设备制造方法及图纸

技术编号:21199235 阅读:19 留言:0更新日期:2019-05-25 01:04
本发明专利技术涉及一种交互控制方法、装置、存储介质和计算机设备,该方法包括:获取并输出画面;确定所述画面中的原点视场区域;检测所述画面中的视线落点位置;当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动。本申请提供的方案提高了交互控制效率。

Interactive control methods, devices, storage media and computer equipment

The invention relates to an interactive control method, device, storage medium and computer equipment, which comprises acquiring and outputting a picture, determining the origin field of view in the picture, detecting the position of the line of sight landing in the picture, and controlling the area outside the origin field of view in the picture when the position of the line of sight landing is located at the edge of the origin field of view. The interactive object of the domain tends to move towards the origin field of view area. The scheme provided in this application improves the efficiency of interaction control.

【技术实现步骤摘要】
交互控制方法、装置、存储介质和计算机设备
本专利技术涉及计算机
,特别是涉及一种交互控制方法、装置、存储介质和计算机设备。
技术介绍
随着计算机技术与互联网的发展,计算机技术给人们的生活带来了诸多便利,大大的提升了人们的生活品质。越来越多的用户习惯于通过计算机设备来观看视频或者直播,并在观看过程中进行交互操作。传统技术中在画面中进行交互控制时,需要用户利用手柄等辅助设备通过类似鼠标的操作进行瞄准控制,并需要通过按键进一步点击等多步骤的操作来实现交互控制,导致交互控制效率低下。
技术实现思路
基于此,有必要针对目前交互控制效率比较低的问题,提供一种交互控制方法、装置、存储介质和计算机设备。一种交互控制方法,包括:获取并输出画面;确定所述画面中的原点视场区域;检测所述画面中的视线落点位置;当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动。一种交互控制装置,包括:获取模块,用于获取并输出画面;确定模块,用于确定所述画面中的原点视场区域;检测模块,用于检测所述画面中的视线落点位置;控制模块,用于当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动。一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行以下步骤:获取并输出画面;确定所述画面中的原点视场区域;检测所述画面中的视线落点位置;当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动。一种计算机设备,包括存储器和处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行以下步骤:获取并输出画面;确定所述画面中的原点视场区域;检测所述画面中的视线落点位置;当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动。上述交互控制方法、装置、存储介质和计算机设备,本地在获取并输出画面后,即可自动在画面中确定原点视场区域,然后检测画面中的视线落点位置,当检测到视线落点位置移动至原点视场区域的边缘,也就是用户意图通过交互对象进行交互时,控制交互对象趋向于原点视场区域移动,以实现根据用户视线来控制交互对象,避免了需要利用辅助设备实现交互控制的问题,提高了交互控制效率,而且交互对象在默认状态下位于画面中原点视场区域以外的区域,这样避免了交互对象遮挡原点视场区域内的画面内容影响用户观看本地输出的画面。附图说明图1为一个实施例中交互控制方法的应用环境图;图2为另一个实施例中交互控制方法的应用环境图;图3为一个实施例中交互控制方法的流程示意图;图4为一个实施例中画面中的原点视场区域的示意图;图5为一个实施例中第一视场区域、第二视场区域和原点视场区域的关系示意图;图6为一个实施例中画面示意图;图7为另一个实施例中画面示意图;图8为另一个实施例中画面示意图;图9为另一个实施例中交互控制方法的流程示意图;图10为一个实施例中交互控制装置的模块示意图;图11为另一个实施例中交互控制装置的模块示意图;图12为一个实施例中计算机设备的内部结构图;图13为另一个实施例中计算机设备的内部结构图。具体实施方式为了使本专利技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本专利技术进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本专利技术,并不用于限定本专利技术。图1为一个实施例中交互控制方法的应用环境图。如图1所示,该应用环境包括计算机设备110和用户120。其中,计算机设备110可以是个人计算机、电视或者平板电脑等可播放视频的电子装置。计算机设备110可通过执行交互控制方法,与用户120进行交互。本领域技术人员可以理解,图1中示出的应用环境,仅仅是与本申请方案相关的部分场景,并不构成对本申请方案应用环境的限定。图2为另一个实施例中虚拟现实环境下交互控制方法的应用环境图。如图2所示,该应用环境包括计算机设备210、用户220和虚拟现实设备230。其中,计算机设备210可以是个人计算机、电视或者平板电脑等可播放视频的电子装置。虚拟现实设备230可以是虚拟现实头戴式显示设备,如VR眼镜或者VR眼罩等。虚拟现实设备230可通过执行交互控制方法,与用户120进行交互。图3为一个实施例中交互控制方法的流程示意图。本实施例主要以该方法应用于上述图1中的计算机设备110来举例说明。参照图3,该交互控制方法具体包括如下步骤:S302,获取并输出画面。其中,画面是计算机设备屏幕上呈现的数据。画面具体可以是构成视频流的视频帧在屏幕上显示形成的画面,也可以是从现实世界中采集的图像帧在屏幕上显示形成的画面,还可以是根据页面数据在屏幕上形成的画面。画面具体可以是直播画面。具体地,计算机设备可通过内置的摄像头或者连接的外部摄像头从现实世界中采集图像帧,将采集的图像帧按照采集的时序逐帧播放,以获取并输出画面。计算机设备还可通过声音采集设备从现实世界中采集声音,根据采集的声音与采集的图像帧得到直播数据流,将直播数据流按照采集的时序播放,以获取并输出直播画面。直播数据流也可仅包括图像数据流。计算机设备也可以从本地存储空间中读取视频流资源,将视频流资源所包括的视频帧逐帧播放,以获取并输出画面。在一个实施例中,计算机设备还可以接收其他计算机设备发送的图像帧序列或者视频流,将接收到的图像帧序列逐帧播放,或者将接收到的视频流所包括的视频帧逐帧播放,以获取并输出画面。在一个实施例中,画面具体可以是虚拟现实画面。虚拟现实画面是虚拟现实场景中显示的画面。虚拟现实场景是模拟产生一个三维空间的虚拟世界,提供使用者关于视觉、听觉、触觉等感官的模拟,让使用者如同身历其境一般地观察三度空间内的事物。在本实施例中,通过虚拟现实设备执行该交互控制方法。虚拟现实画面的图像格式按照画面位置可以分为上下画面的图像格式和左右画面的图像格式,按照视野范围可分为全景的图像格式,半全景的图像格式和固定视野的图像格式。虚拟现实画面具体可以是虚拟现实直播画面。具体地,虚拟现实设备可获取待播放的视频流的视频标识。视频标识用于标识出视频流的内容,同一视频标识可对应多个同源视频流。同源视频流是指内容相同但在编码方式或者图像处理方式上存在差异的视频流。多个同源视频之间在数据量大小或者图像呈现效果上存在差异。比如,同一个视频流可存在虚拟现实视频格式的视频流资源和普通视频格式的视频流资源。待播放的视频流可以是已经录制完成的视频流,也可以是实时从现实世界中采集的图片帧序列形成的视频流。虚拟现实设备可在本地根据视频标识和默认的虚拟现实视频格式定位视频文件,进而获取到待播放的视频流资源。虚拟现实设备还可将视频标识发送至计算机设备,并在将视频标识发送至计算机设备时,指定虚拟现实视频格式,使得计算机设备根据该视频标识和指定的虚拟现实视频格式定位视频流资源,并将该视频流资源发送至虚拟现实设备,由虚拟现实设备接收。可以理解的是,计算机设备定位的视频流资源可以是已经录制完成的视频流资源,也可以是本文档来自技高网...

【技术保护点】
1.一种交互控制方法,包括:获取并输出画面;确定所述画面中的原点视场区域;检测所述画面中的视线落点位置;当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动。

【技术特征摘要】
1.一种交互控制方法,包括:获取并输出画面;确定所述画面中的原点视场区域;检测所述画面中的视线落点位置;当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动。2.根据权利要求1所述的方法,其特征在于,所述检测所述画面中的视线落点位置,包括:获取眼睛图像;确定所述眼睛图像中瞳孔成像点在屏幕上的凝视点位置;将所述凝视点位置转换为所述画面中的视线落点位置。3.根据权利要求2所述的方法,其特征在于,所述眼睛图像为双目的眼睛图像;所述凝视点位置为双目的凝视点位置;所述将所述凝视点位置转换为所述画面中的视线落点位置,包括:将所述双目的凝视点位置进行视差转换,得到所述双目的凝视点位置在所述画面中所共同对应的视线落点位置。4.根据权利要求1所述的方法,其特征在于,所述当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动,包括:在所述视线落点位置位于所述原点视场区域的边缘时,确定所述边缘所对应的触发类型;当所述触发类型为显示控制类型时,在所述边缘处显示待阅读内容;当所述触发类型为移动控制类型时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动。5.根据权利要求4所述的方法,其特征在于,所述方法还包括:当所述视线落点位置持续移动并离开所述边缘时,则在所述边缘区域所对应的触发类型为显示控制类型时隐藏所述待阅读内容;当所述视线落点位置持续移动并离开所述边缘时,则在所述边缘区域所对应的触发类型为移动控制类型时控制所述交互对象按照当前移动方向的反方向移动。6.根据权利要求1所述的方法,其特征在于,所述当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动,包括:当所述视线落点位置位于所述原点视场区域的边缘时,将位于所述画面中所述原点视场区域以外区域的交互对象,持续移动至所述原点视场区域中的预设位置处;或者,当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象向所述原点视场区域移动,直至所述视线落点位置位于所述交互对象中。7.根据权利要求6所述的方法,其特征在于,所述方法还包括:在所述交互对象中确定所述视线落点位置停留的交互区域;当所述视线落点位置停留于所述交互区域的时长超过第一预设时长时,则执行与所述交互区域相对应的交互操作。8.根据权利要求6所述的方法,其特征在于,所述方法还包括:在所述视线落点位置移出所述交互对象时开始计时;当计时超过第二预设时长时,则控制所述交互对象返回至所述画面中所述原点视场区域以外区域。9.根据权利要求1至8中任一项所述的方法,其特征在于,所述画面为虚拟现实画面;所述确定所述画面中的原点视场区域,包括:根据当前的视场角,在所述虚拟现实画面中确定原点视场区域。10.根据权利要求9所述的方法,其特征在于,所述根据当前的视场角,在所述虚拟现实画面中确定原点视场区域,包括:确定当前的视场角的角度值;根据参考视场角的角度值在所述虚拟现实画面中确定原点视场参考区域;根据获取的所述角度值和所述原点视场参考区域,在所述虚拟现实画面中确定原点视场区域。11.根据权利要求9所述的方法,其特征在于,所述检测所述虚拟现实画面中的视线落点位置,包括:根据初始的传感器数据,在所述虚拟现实画面中确定视线落点初始位置;获取当前的传感器数据;根据当前的传感器数据与初始的传感器数据的差值确定偏移角度;根据所述偏移角度和所述视线落点初始位置,确定当前在所述虚拟现实画面中的视线落点位置。12.根据权利要求9所述的方法,其特征在于,所述虚拟现实画面还包括第一视场区域和第二视场区域;所述第二视场区域包围所述第一视场区域;所述第一视场区域包围所述原点视场区域;所述当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述画面中所述原点视场区域以外区域的交互对象趋向于所述原点视场区域移动,包括:当所述视线落点位置位于所述原点视场区域的边缘时,控制位于所述虚拟现实画面中第一视场区域的交互...

【专利技术属性】
技术研发人员:周扬王金桂
申请(专利权)人:腾讯科技深圳有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1