共享虚拟场景的交互方法及控制器、手持设备及虚拟系统技术方案

技术编号:35164606 阅读:15 留言:0更新日期:2022-10-12 17:26
本发明专利技术提供了共享虚拟场景的交互方法及控制器、手持设备及虚拟系统,解决了现有技术中当多用户共同使用AR技术时,无法实现多用户自由互动,从而降低了用户的体验感的技术问题。本发明专利技术提供的多用户共享虚拟场景的交互方法,通过将多用户中的任何一个用户所处的实体环境虚拟为实体互动场景模型,多用户共用该实体互动场景模型,并将所有用户在实体环境中的手持设备的6DOF数据映射至该实体互动场景模型中,以增强参与者的互动及AR体验感。将任何一个用户所在的实体环境虚拟成实体互动场景模型,每个用户在该实体互动场景模型中互动,从而可以使得多用户中的每个用户无需在一个特定的划定好的真实场景中实现自由互动,提高了用户的体验感。了用户的体验感。了用户的体验感。

【技术实现步骤摘要】
共享虚拟场景的交互方法及控制器、手持设备及虚拟系统


[0001]本专利技术涉及虚拟
,具体涉及共享虚拟场景的交互方法及控制器、手持设备及虚拟系统。

技术介绍

[0002]增强现实技术(简称AR技术),是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟实体环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真使用户沉浸到该实体环境中,例如可以像真实世界一样走动,比如可以模拟双手抓握东西等。
[0003]现有技术中,当多用户共同使用AR技术来体验更复杂的虚拟场景时,往往只能在特定的实体环境中进行简单的互动,例如多用户在设定划定好的体验区域内,通过AR技术在虚拟场景中进行简单的互动。当多用户通过AR实现虚拟互动时,多用户无法只能在划定好的体验区域进行体验,无法实现多用户在不同的区域或者同一区域的不同位置的自由交互,从而降低了用户的体验感。

技术实现思路

[0004]有鉴于此,本专利技术提供了共享虚拟场景的交互方法及控制器、手持设备及虚拟系统,解决了现有技术中当多用户共同使用AR技术来体验更复杂的虚拟场景时,无法实现多用户自由互动,从而降低了用户的体验感的技术问题。
[0005]根据本专利技术的一个方面,本专利技术提供了一种多用户共享虚拟场景的交互方法,包括:获取用户所处的实体环境的实体场景信息;根据所述实体场景信息渲染生成所述用户所在的实体环境对应的实体互动场景模型;将所述实体互动场景模型发送至与所述用户相关的相关用户;将与所述用户对应的互动化身投映至所述实体互动场景模型;以及获取所述用户所使用的手持设备的6DOF数据,并将所述6DOF数据映射至所述实体互动场景模型。
[0006]在本专利技术一实施例中,获取所述用户所使用的手持设备的6DOF数据,包括:获取所述用户所使用的手持设备的IMU数据;获取所述手持设备的空间定位图片信息;以及根据所述空间定位图片信息以及所述手持设备的IMU数据,获取所述手持设备的6DOF数据。
[0007]在本专利技术一实施例中,根据所述空间定位图片信息以及所述手持设备的IMU数据,获取所述手持设备的6DOF数据,包括:当所述用户与所述实体互动场景模型发送者所处的实体环境相同时,对所述空间定位图片信息以及所述手持设备的IMU数据进行直接计算,生成所述手持设备的6DOF数据。
[0008]在本专利技术一实施例中,根据所述空间定位图片信息以及所述手持设备的IMU数据,获取所述手持设备的6DOF数据,包括:当所述用户与所述实体互动场景模型发送者所处的实体环境不同时,获取所述用户所处的实际环境的实体场景信息并渲染生成所述用户的实体场景的模型;根据所述用户的实体场景的模型以及所述实体互动场景模型发送者的实体互动场景的模型,确定场景映射关系;获取所述用户所使用的手持设备的初始空间定位图
片信息,并根据所述场景映射关系确定所述用户的手持设备在所述实体互动场景模型中的空间定位图片信息;以及对所述用户的手持设备的空间定位图片信息以及所述用户的手持设备的IMU数据进行计算,生成所述用户的所述手持设备的6DOF数据。
[0009]在本专利技术一实施例中,获取所述手持设备的空间定位图片信息,包括:获取所述手持设备的多个图片信息;以及根据所述多个图片信息,获取所述手持设备的空间定位图片信息。
[0010]在本专利技术一实施例中,在将与所述用户对应的互动化身投映至所述实体互动场景模型之前,所述多用户共享虚拟场景的交互方法还包括:获取所述用户在预设互动化身库中选取的选中互动化身,其中,并确定所述选中互动化身为与所述用户对应的互动化身。
[0011]在本专利技术一实施例中,在将与所述用户对应的互动化身投映至所述实体互动场景模型之前,所述多用户共享虚拟场景的交互方法还包括:获取所述用户的头像图片信息;以及根据所述头像图片信息生成与所述用户对应的互动化身。
[0012]作为本专利技术的第二方面,本专利技术还提供了一种多用户虚拟场景交互控制器,包括:
[0013]数据接收模块,用于获取用户所处的实体环境的实体场景信息;
[0014]数据确定模块,用于确定所述用户所使用的手持设备的6DOF数据;实体互动场景模型生成模块,用于根据所述实体场景信息渲染生成与所述用户所在的实体环境对应的实体互动场景模型;数据发送模块,用于将所述实体互动场景模型发送至与所述用户相关的相关用户;以及映射模块,用于将与所述用户对应的互动化身投映至所述实体互动场景模型;以及将所述6DOF数据映射至所述实体互动场景模型。
[0015]在本专利技术一实施例中,所述数据确定模块包括:第一数据接收模块,用于接收所述手持设备的IMU数据;第二数据接收模块,用于接收所述用户所使用的手持设备的空间定位图片信息;以及确定模块,用于根据所述空间定位图片信息以及所述手持设备的IMU数据,确定所述手持设备的6DOF数据。
[0016]在本专利技术一实施例中,所述确定模块包括:判断模块,用于判断所述用户与所述实体互动场景模型发送者所处的实体环境是否相同;第一计算模块,用于当所述用户与所述实体互动场景模型发送者所处的实体环境相同时,对所述空间定位图片信息以及所述手持设备的IMU数据进行直接计算,生成所述手持设备的6DOF数据。
[0017]在本专利技术一实施例中,所述确定模块还包括:映射关系确定模块,用于当所述用户与所述实体互动场景模型发送者所处的实体环境不同时,获取所述用户所处的实际环境的实体场景信息并渲染生成所述用户的实体场景的模型;并根据所述用户的实体场景的模型以及所述实体互动场景模型发送者的实体互动场景的模型,确定场景映射关系;第二计算模块,用于获取所述用户所使用的手持设备的初始空间定位图片信息,并根据所述场景映射关系确定所述用户的手持设备在所述实体互动场景模型中的空间定位图片信息;并对所述用户的手持设备的空间定位图片信息以及所述用户的手持设备的IMU数据进行计算,生成所述用户的所述手持设备的6DOF数据。
[0018]在本专利技术一实施例中,所述多用户虚拟场景交互控制器,还包括:互动化身确定模块,用于获取所述用户在预设互动化身库中选取的选中互动化身,并确定所述选中互动化身为与所述用户对应的互动化身;或所述互动化身确定模块用于获取所述用户的头像图片信息;并根据所述头像图片信息生成与所述用户对应的互动化身。
[0019]作为本专利技术的第三方面,本专利技术还提供了一种手持设备,包括:主机;以及手柄模块,所述手柄模块与所述主机可拆卸连接,且所述手柄模块与所述主机通信连接;其中,所述主机包括:上述所述的多用户虚拟场景交互控制器;第二摄像装置,所述第二摄像装置用于拍摄所述用户所在的实体环境的实体场景信息;第一摄像装置,所述第一摄像装置用于拍摄所述用户的图片信息;以及惯性传感器,所述惯性传感器用于检测所述手持设备的IMU数据;其中,所述第一摄像装置、所述第二摄像装置以及所述惯性传感器均与所述多用户虚拟场景交互控制器通信连接。
[0020]在本专利技术一实施例中,所述第一摄像装置的数量为四个;其中,四个所本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种多用户共享虚拟场景的交互方法,其特征在于,包括:获取用户所处的实体环境的实体场景信息;根据所述实体场景信息渲染生成所述用户所在的实体环境对应的实体互动场景模型;将所述实体互动场景模型发送至与所述用户相关的相关用户;将与所述用户对应的互动化身投映至所述实体互动场景模型;以及获取所述用户所使用的手持设备的6DOF数据,并将所述6DOF数据映射至所述实体互动场景模型。2.根据权利要求1所述的多用户共享虚拟场景的交互方法,其特征在于,获取所述用户所使用的手持设备的6DOF数据,包括:获取所述用户所使用的手持设备的IMU数据;获取所述手持设备的空间定位图片信息;以及根据所述空间定位图片信息以及所述手持设备的IMU数据,获取所述手持设备的6DOF数据。3.根据权利要求2所述的多用户共享虚拟场景的交互方法,其特征在于,根据所述空间定位图片信息以及所述手持设备的IMU数据,获取所述手持设备的6DOF数据,包括:当所述用户与所述实体互动场景模型发送者所处的实体环境相同时,对所述空间定位图片信息以及所述手持设备的IMU数据进行直接计算,生成所述手持设备的6DOF数据。4.根据权利要求2所述的多用户共享虚拟场景的交互方法,其特征在于,根据所述空间定位图片信息以及所述手持设备的IMU数据,获取所述手持设备的6DOF数据,包括:当所述用户与所述实体互动场景模型发送者所处的实体环境不同时,获取所述用户所处的实际环境的实体场景信息并渲染生成所述用户的实体场景的模型;根据所述用户的实体场景的模型以及所述实体互动场景模型发送者的实体互动场景的模型,确定场景映射关系;获取所述用户所使用的手持设备的初始空间定位图片信息,并根据所述场景映射关系确定所述用户的手持设备在所述实体互动场景模型中的空间定位图片信息;以及对所述用户的手持设备的空间定位图片信息以及所述用户的手持设备的IMU数据进行计算,生成所述用户的所述手持设备的6DOF数据。5.根据权利要求2所述的多用户共享虚拟场景的交互方法,其特征在于,获取所述手持设备的空间定位图片信息,包括:获取所述手持设备的多个图片信息;以及根据所述多个图片信息,获取所述手持设备的空间定位图片信息。6.根据权利要求1所述的多用户共享虚拟场景的交互方法,其特征在于,在将与所述用户对应的互动化身投映至所述实体互动场景模型之前,所述多用户共享虚拟场景的交互方法还包括:获取所述用户在预设互动化身库中选取的选中互动化身,其中,并确定所述选中互动化身为与所述用户对应的互动化身。7.根据权利要求1所述的多用户共享虚拟场景的交互方法,其特征在于,在将与所述用户对应的互动化身投映至所述实体互动场景模型之前,所述多用户共享虚拟场景的交互方法还包括:真实
获取所述用户的头像图片信息;以及根据所述头像图片信息生成与所述用户对应的互动化身。8.一种多用户虚拟场景交互控制器,其特征在于,包括:数据接收模块,用于获取用户所处的实体环境的实体场景信息;数据确定模块,用于确定所述用户所使用的手持设备的6DOF数据;实体互动场景模型生成模块,用于根据所述实体场景信息渲染生成...

【专利技术属性】
技术研发人员:翁志彬周克
申请(专利权)人:小派科技上海有限责任公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1