一种元宇宙沉浸式体验方法及系统技术方案

技术编号:38022602 阅读:12 留言:0更新日期:2023-06-30 10:49
本发明专利技术涉及智能交互技术领域,尤其是一种元宇宙沉浸式体验方法及系统。所述方法包括以下步骤:采集物联网平台的非结构化数据,并对非结构化数据进行数据清洗降噪处理,生成真实世界降噪数据,对真实世界降噪数据进行人物特征数据与环境特征数据提取处理,生成真实人物特征数据与真实环境特征数据;利用真实人物特征数据进行虚拟世界人物模型构建,生成虚拟世界特定人物模型;利用真实环境特征数据进行虚拟世界环境模型构建,生成超现实拟态环境模型;对虚拟世界特定人物模型与超现实拟态环境模型进行超现实拟态人物环境交互反馈处理。本发明专利技术通过对虚拟世界的构造及体验,以解决现有元宇宙无法使用户得到沉浸式体验的问题。元宇宙无法使用户得到沉浸式体验的问题。元宇宙无法使用户得到沉浸式体验的问题。

【技术实现步骤摘要】
一种元宇宙沉浸式体验方法及系统


[0001]本专利技术涉及智能交互
,尤其是一种元宇宙沉浸式体验方法及系统。

技术介绍

[0002]元宇宙本质上是对现实世界的虚拟化、数字化过程,需要对内容生产、经济系统、用户体验以及实体世界内容等进行大量改造。涉及到虚拟现实、增强现实、人工智能、区块链等多个
的发展,其中,虚拟现实和增强现实为元宇宙提供了实现虚拟场景和真实场景互动的技术基础;人工智能技术则可以提供智能化的虚拟角色、自然语言交互等服务;区块链技术则为元宇宙提供了分布式、去中心化的管理方式,确保元宇宙中数字资产的安全性和不可篡改性。同时,高速网络、大数据、云计算等技术的发展,也为元宇宙的实现提供了必要的基础设施和支持。元宇宙的发展是循序渐进的,是在共享的基础设施、标准及协议的支撑下,由众多工具、平台不断融合、进化而最终成形。基于扩展现实技术提供沉浸式体验,基于数字孪生技术生成现实世界的镜像,基于区块链技术搭建经济体系,将虚拟世界与现实世界在经济系统、社交系统、身份系统上密切融合,并且允许每个用户进行内容生产和世界编辑。但是,传统的元宇宙技术无法很好地处理虚拟世界的音频效果,并且虚拟世界中的环境建模效果特别差,智能化程度不够高,不能使用户有满意的沉浸式元宇宙体验。

技术实现思路

[0003]基于此,本专利技术提供一种元宇宙沉浸式体验方法及系统,以解决至少一个上述技术问题为实现上述目的,一种元宇宙沉浸式体验方法,所述方法包括以下步骤:
[0004]步骤S1:采集物联网平台的非结构化数据,并对非结构化数据进行数据清洗降噪处理,生成真实世界降噪数据,对真实世界降噪数据进行人物特征数据与环境特征数据提取处理,从而生成真实人物特征数据与真实环境特征数据;
[0005]步骤S2:利用真实人物特征数据进行虚拟世界人物模型构建,从而生成虚拟世界特定人物模型;
[0006]步骤S3:利用真实环境特征数据进行虚拟世界环境模型构建,从而生成超现实拟态环境模型;
[0007]步骤S4:对虚拟世界特定人物模型与超现实拟态环境模型进行超现实拟态人物环境交互反馈处理,从而生成超现实拟态人物环境交互反馈信息,将超现实拟态人物环境交互反馈信息反馈给终端。
[0008]本实施例采集物联网的非结构化数据用于进行虚拟世界的数据建模,通过对非结构化数据进行数据清洗降噪处理使得数据因为冗余数据或噪点数据造成的结果误差降低,使虚拟世界建模的效果更加符合预期效果,并将非结构化数据划分为真实人物特征数据与真实环境特征数据,用于对虚拟人物的建模与虚拟环境的建模,在虚拟人物建模中首先用真实人物特征数据把虚拟人体框架搭建出来,用户可以自定义对虚拟人体框架进行改变,满足用户体验的满意度,并且利用真实人物特征数据中的声音数据作为用户的唯一标识,
在元宇宙中不同的用户可以准确地确认自己所对应的虚拟角色,利用真实环境特征数据进行虚拟世界环境模型构建,可以通过真实环境的音频与图像构建出超现实拟态环境模型,使得虚拟世界中的音频与视觉呈现三维效果,满足用户在虚拟世界中体验真实感受,并且将虚拟世界特定人物模型与超现实拟态环境模型进行虚拟世界人物环境交互处理,将用户利用虚拟世界特定人物模型在超现实拟态环境模型中的沉浸式享受进行反馈,得到超现实拟态人物环境交互反馈信息,并将现实拟态人物环境交互反馈信息反馈给终端。因此,元宇宙沉浸式体验方法能够很好的处理虚拟世界的音频效果,并且虚拟世界中的环境建模效果更加真实,智能化程度较高,可以使用户有满意的沉浸式的元宇宙体验。
[0009]在本说明书的一个实施例中,其中非结构化数据包括真实音频数据以及真实图像数据,步骤S1包括以下步骤:
[0010]步骤S11:获取音频采集指令集,利用音频采集指令集对物联网平台进行音频数据采集,从而生成真实音频数据;
[0011]步骤S12:获取图像采集指令集,利用图像采集指令集对物联网平台进行图像数据采集,从而生成真实图像数据;
[0012]步骤S13:对真实音频数据进行音频数据清洗处理,生成真实清洗音频数据,对真实清洗音频数据进行音频数据降噪处理,将真实清洗音频数据中的音频噪音进行去除,从而生成真实降噪音频数据;
[0013]步骤S14:对真实图像数据进行图像数据清洗处理,生成真实清洗图像数据,对真实清洗图像数据进行图像数据降噪处理,将真实清洗图像数据中的图像噪点进行去除,从而生成真实降噪图像数据;
[0014]步骤S15:对真实降噪音频数据与真实降噪图像数据进行真实数据整合处理,从而得到真实世界降噪数据;
[0015]步骤S16:对真实世界降噪数据进行人物特征数据与环境特征数据提取处理,从而生成真实人物特征数据与真实环境特征数据。
[0016]本实施例通过获取对物联网平台进行采集的音频采集指令集与图像采集指令集,利用音频采集指令集与图像采集指令集对物联网平台的音频数据与图像数据进行数据采集,为后续处理提供原始数据,对音频数据与图像数据进行数据清洗处理,生成清洗数据,对清洗数据进行数据降噪处理,将清洗数据中的噪点进行去除,从而生成降噪数据,去除真实音频数据中的噪音,提高音频数据的质量,为后续处理提供更准确的音频数据,去除真实图像数据中的噪点,提高图像数据的质量,为后续处理提供更准确的图像数据,将音频数据与图像数据进行整合,获得更丰富的真实数据,并提高数据的准确性和可用性,对真实世界降噪数据中提取出人物特征数据和环境特征数据,为后续的虚拟世界构建提供重要的信息。
[0017]在本说明书的一个实施例中,步骤S2包括以下步骤:
[0018]步骤S21:将真实人物特征数据进行人体图像数据与人声数据提取处理,得到真实人体特征数据与真实人声特征数据;
[0019]步骤S22:利用真实人体特征数据进行虚拟人体框架三维建模,从而生成虚拟人体框架模型;
[0020]步骤S23:获取自定义脸部特征数据,利用自定义脸部特征数据对虚拟人体框架模
型进行虚拟人体脸部自定义构建,从而生成虚拟世界人体数据;
[0021]步骤S24:通过对真实人声特征数据进行历史音频提取处理,从而生成历史人声音频特征数据;
[0022]步骤S25:利用历史人声音频特征数据进行音频提取出声纹特征处理,从而生成历史用户声纹特征信息;
[0023]步骤S26:对历史用户声纹特征信息进行最小代价深度声纹提取,从而构建深度用户声纹信息数据;
[0024]步骤S27:通过声纹转化标识图像计算公式对深度用户声纹信息数据进行虚拟世界唯一标识图像建立,从而生成用户唯一标识图像数据;
[0025]步骤S28:利用真实人声特征数据与虚拟世界人体数据进行虚拟世界人物构建,从而生成虚拟世界人物模型;
[0026]步骤S29:将用户唯一标识图像数据添加至虚拟世界人物模型进行虚拟世界人物唯一标识处理,从而生成虚拟世界特定人物模型。
[0027]本实施例将真实人物特征数据进行人体图像数据与人声数据提取处理,得到本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种元宇宙沉浸式体验方法,其特征在于,应用于元宇宙平台,所述方法包括以下步骤:步骤S1:采集物联网平台的非结构化数据,并对非结构化数据进行数据清洗降噪处理,生成真实世界降噪数据,对真实世界降噪数据进行人物特征数据与环境特征数据提取处理,从而生成真实人物特征数据与真实环境特征数据;步骤S2:利用真实人物特征数据进行虚拟世界人物模型构建,从而生成虚拟世界特定人物模型;步骤S3:利用真实环境特征数据进行虚拟世界环境模型构建,从而生成超现实拟态环境模型;步骤S4:对虚拟世界特定人物模型与超现实拟态环境模型进行超现实拟态人物环境交互反馈处理,从而生成超现实拟态人物环境交互反馈信息,将超现实拟态人物环境交互反馈信息反馈给终端。2.根据权利要求1所述的元宇宙沉浸式体验方法,其特征在于,其中非结构化数据包括真实音频数据以及真实图像数据,步骤S1包括以下步骤:步骤S11:获取音频采集指令集,利用音频采集指令集对物联网平台进行音频数据采集,从而生成真实音频数据;步骤S12:获取图像采集指令集,利用图像采集指令集对物联网平台进行图像数据采集,从而生成真实图像数据;步骤S13:对真实音频数据进行音频数据清洗处理,生成真实清洗音频数据,对真实清洗音频数据进行音频数据降噪处理,将真实清洗音频数据中的音频噪音进行去除,从而生成真实降噪音频数据;步骤S14:对真实图像数据进行图像数据清洗处理,生成真实清洗图像数据,对真实清洗图像数据进行图像数据降噪处理,将真实清洗图像数据中的图像噪点进行去除,从而生成真实降噪图像数据;步骤S15:对真实降噪音频数据与真实降噪图像数据进行真实数据整合处理,从而得到真实世界降噪数据;步骤S16:对真实世界降噪数据进行人物特征数据与环境特征数据提取处理,从而生成真实人物特征数据与真实环境特征数据。3.根据权利要求2所述的元宇宙沉浸式体验方法,其特征在于,步骤S2包括以下步骤:步骤S21:将真实人物特征数据进行人体图像数据与人声数据提取处理,得到真实人体特征数据与真实人声特征数据;步骤S22:利用真实人体特征数据进行虚拟人体框架三维建模,从而生成虚拟人体框架模型;步骤S23:获取自定义脸部特征数据,利用自定义脸部特征数据对虚拟人体框架模型进行虚拟人体脸部自定义构建,从而生成虚拟世界人体数据;步骤S24:通过对真实人声特征数据进行历史音频提取处理,从而生成历史人声音频特征数据;步骤S25:利用历史人声音频特征数据进行音频提取出声纹特征处理,从而生成历史用户声纹特征信息;
步骤S26:对历史用户声纹特征信息进行最小代价深度声纹提取,从而构建深度用户声纹信息数据;步骤S27:通过声纹转化标识图像计算公式对深度用户声纹信息数据进行虚拟世界唯一标识图像建立,从而生成用户唯一标识图像数据;步骤S28:利用真实人声特征数据与虚拟世界人体数据进行虚拟世界人物构建,从而生成虚拟世界人物模型;步骤S29:将用户唯一标识图像数据添加至虚拟世界人物模型进行虚拟世界人物唯一标识处理,从而生成虚拟世界特定人物模型。4.根据权利要求3所述的元宇宙沉浸式体验方法,其特征在于,步骤S27中的声纹转化标识图像计算公式如下所示:其中,C
k
表示为第k个声纹转化成唯一标识图像指数,N表示为声纹特征信息中的音频数据的最后一帧,α
i
表示为声纹特征信息中第i帧音频的音频数据,z表示为声纹特征信息中音频数据的平均值,θ表示为声纹特征信息中的历史音频数据的权重信息,ε表示为声纹转化异常指数的调整项。5.根据权利要求3所述的元宇宙沉浸式体...

【专利技术属性】
技术研发人员:高新良王萌赵中坤
申请(专利权)人:深圳星火互娱数字科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1