一种MR/AR/VR互动和生物场景控制方法、移动终端与可读存储介质技术

技术编号:34763004 阅读:20 留言:0更新日期:2022-08-31 19:05
一种MR/AR/VR互动和生物场景控制方法、移动终端与可读存储介质可通过智能眼镜和多种传感设备完成在实际现实场景中完成虚拟交互,通过智能眼镜上的定位模块和感知模块获取实时GPS信息和图像信息,将实时GPS信息和图像信息通过通信模块上传至服务器,与服务器所存储的开发端口制作的相关数据所设置的GPS位置与特征区域位置进行匹配,匹配成功后通过智能眼镜的成像装置进行数据的可视化呈现,通过动作捕捉装置完成用户操作的感应,若满足开发端口所设置的触发条件,则图像/视频数据根据开发端口所设置的变量进行可视化呈现。端口所设置的变量进行可视化呈现。端口所设置的变量进行可视化呈现。

【技术实现步骤摘要】
一种MR/AR/VR互动和生物场景控制方法、移动终端与可读存储介质


[0001]本申请涉及增强现实
,具体涉及一种MR/AR/VR互动和生物场景控制方法、移动终端与可读存储介质。

技术介绍

[0002]目前,基于元宇宙的VR眼镜迎来了一波热潮,越来越多的公司和企业宣布加入元宇宙的行列进行相关产品的研发。VR眼镜作为元宇宙的主流产品主打沉浸式和全虚拟,但该类产品由于打造的是全虚拟的世界平台容易让使用者沉迷虚拟世界,逃离现实世界,易于产生降低人均生产效率和生产价值的不良影响。
[0003]同时,在现实生活中经常出现构想或设计的实际复现成本较大且建设周期较长的情况,并且由于现实世界中缺少互动性和趣味性而让越来越多的人选择在网上畅游,并且在现实世界中的行动成本和检索成本较高而让越来越多的人选择在网上购物、点外卖,上述现象都是由于现实世界与虚拟世界还未实现互联互通所导致的。
[0004]因此,将虚拟世界与现实世界在同一个平台上进行融合的系统和方法不仅能预防用户沉浸于虚拟世界,而且降低了现实世界的实现成本提高了现实世界的趣味性、互动性和针对性,该项技术、系统与应用能够真正让人们在体验真实生活的同时享受虚拟生活的便利。

技术实现思路

[0005]一种MR/AR/VR互动场景控制方法包括如下步骤:
[0006]S1.通过在智能眼镜上的界面切换或选择进入互动场景的增强现实界面;
[0007]S2.通过智能眼镜上的定位模块和感知模块获取实时GPS信息和图像信息;
[0008]S3.将实时GPS信息和图像信息通过通信模块上传至服务器,与服务器所存储的开发端口制作的二/三维图像/视频数据所设置的GPS位置与特征区域位置进行匹配;
[0009]S4.匹配成功后服务器将对应匹配的二/三维图像/视频数据进行数据回传,通过智能眼镜的通信模块进行数据接收,通过智能眼镜的成像装置进行数据呈现,完成数据的静态/动态可视化呈现;
[0010]S5.用户根据呈现的图像/视频数据进行相应操作与互动,通过动作捕捉装置完成用户操作的感应,若满足开发端口所设置的触发条件,则图像/视频数据根据开发端口所设置的变量进行可视化呈现。
[0011]一种MR/AR/VR生物场景控制方法包括如下步骤:
[0012]S6.通过在智能眼镜上的界面切换或选择进入生物场景的增强现实界面;
[0013]S7.通过智能眼镜上的定位模块和感知模块获取实时GPS信息和图像信息;
[0014]S8.将实时GPS信息和图像信息通过通信模块上传至服务器,与服务器所存储的开发端口制作的生物视频数据所设置的GPS位置与特征区域位置进行匹配;
[0015]S9.匹配成功后服务器将对应匹配的生物视频数据进行数据回传,通过智能眼镜的通信模块进行数据接收,通过智能眼镜的成像装置进行数据呈现,完成数据的动态可视化呈现;
[0016]S10.用户根据呈现的生物视频数据进行相应操作与互动,通过动作捕捉装置完成用户操作的感应,若满足开发端口所设置的触发条件,则生物视频数据根据开发端口所设置的反馈变量进行可视化呈现。
[0017]所述的动作捕捉装置的建模步骤如下:
[0018]S11.将人体等效为“质量

弹簧

阻尼”模型;
[0019]S12.对人体进行集总建模,将人体等效为弹簧

质量

阻尼模型,包括两个主要部分——人体各关键部位节点、地面;
[0020]S13.设地面质量无穷大,在人体上取n个节点以更精确地描绘人体的行为动作细节,根据牛顿第二定律及每个节点手里关系列出人体各节点微分方程n个,
[0021][0022]根据微分方程列出质量矩阵、刚度矩阵、阻尼矩阵,
[0023][0024][0025]C=αM+βK;
[0026]S14.通过速度传感器检测此时人体每个节点的速度,结合GPS探测每个节点的三维坐标,得到γ0=(x0,y0,z0);即为每个节点速度初始值和位移初始值;
[0027]S15.使用模态叠加法对方程进行解耦,并将质量矩阵、刚度矩阵、阻尼矩阵对角化,将方程从物理空间求解变到模态空间求解;
[0028]S16.通过特殊算法或求解工具对方程进行迭代求解;
[0029]S17.求出n阶模态后,将其叠加,得到物理空间各节点的速度、位移、以及加速度;
[0030]S18.通过求解出的速度、位移、加速度构建任务移动的模型以及短时内移动的预测模型。
[0031]所述的生物视频数据的建模步骤如下:
[0032]S19.构建实际特性数据中的不变量数据,搭建不变量数据的可视化模型;
[0033]S20.构建实际特性数据中的变量数据,设置变量数据关于时间的公式,将该公式通过传递函数作用在可视化模型上,完成可视化模型的定量变化设置;
[0034]S21.设置变量数据的阈值,搭建变量数据超过阈值后的可视化模型,若变量数据的值超过所设置的阈值,则将可视化模型进行前后切换,完成可视化模型的定性变化设置。
[0035]一种移动终端,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现所述的控制方法的步骤。
[0036]一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现所述的控制方法的步骤。
附图说明
[0037]图1为本申请基于增强现实的智能眼镜系统硬件逻辑框图;
[0038]图2为本申请实施例一内部逻辑图;
[0039]图3为本申请实施例一外部呈现图;
[0040]图4为本申请实施例二界面呈现图;
[0041]图5为本申请实施例二外部框架图;
[0042]图6为本申请实施例二内部逻辑图;
[0043]图7为本申请实施例二人体等效模型图;
[0044]图8为本申请实施例二九节点人体等效模型图;
[0045]图9为本申请实施例二九节点示意图;
[0046]图10为本申请实施例二模型仿真图;
[0047]图11为本申请实施例三界面呈现图;
[0048]图12为本申请实施例三内部逻辑图。
具体实施方式
[0049]下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
[0050]如图1所示,一种基于增强现实的智能眼镜系统硬件包括若干VR/AR/MR智能眼镜接入设备、服务器以及基于服务器的若干多层互联网区域,其中所述的VR/AR/MR智能眼镜接入设备通过无线通讯与服务器相连,所述的服务器上运行着所述的若干多层互联网区域本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种MR/AR/VR互动场景控制方法,其特征在于包括如下步骤:S1.通过在智能眼镜上的界面切换或选择进入互动场景的增强现实界面;S2.通过智能眼镜上的定位模块和感知模块获取实时GPS信息和图像信息;S3.将实时GPS信息和图像信息通过通信模块上传至服务器,与服务器所存储的开发端口制作的二/三维图像/视频数据所设置的GPS位置与特征区域位置进行匹配;S4.匹配成功后服务器将对应匹配的二/三维图像/视频数据进行数据回传,通过智能眼镜的通信模块进行数据接收,通过智能眼镜的成像装置进行数据呈现,完成数据的静态/动态可视化呈现;S5.用户根据呈现的图像/视频数据进行相应操作与互动,通过动作捕捉装置完成用户操作的感应,若满足开发端口所设置的触发条件,则图像/视频数据根据开发端口所设置的变量进行可视化呈现。2.一种MR/AR/VR生物场景控制方法,其特征在于包括如下步骤:S6.通过在智能眼镜上的界面切换或选择进入生物场景的增强现实界面;S7.通过智能眼镜上的定位模块和感知模块获取实时GPS信息和图像信息;S8.将实时GPS信息和图像信息通过通信模块上传至服务器,与服务器所存储的开发端口制作的生物视频数据所设置的GPS位置与特征区域位置进行匹配;S9.匹配成功后服务器将对应匹配的生物视频数据进行数据回传,通过智能眼镜的通信模块进行数据接收,通过智能眼镜的成像装置进行数据呈现,完成数据的动态可视化呈现;S10.用户根据呈现的生物视频数据进行相应操作与互动,通过动作捕捉装置完成用户操作的感应,若满足开发端口所设置的触发条件,则生物视频数据根据开发端口所设置的反馈变量进行可视化呈现。3.根据权利要求1或2所述的控制方法,其特征在于所述的动作捕捉装置的建模步骤如下:S11.将人体等效为“质量

弹簧

阻尼”模型;S12.对人体进行集总建模,将人体等效为...

【专利技术属性】
技术研发人员:王雪燕黄正宗王亮张玉江蔡雍稚陈霖
申请(专利权)人:浙江科顿科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1