当前位置: 首页 > 专利查询>郭有恒专利>正文

一种基于人工智能的虚拟现实人体模型生成及交互方法技术

技术编号:39287270 阅读:9 留言:0更新日期:2023-11-07 10:57
本申请涉及虚拟现实领域,公开了一种基于人工智能的虚拟现实人体模型生成及交互方法,包括以下步骤:S1、对佩戴者进行面部信息捕捉及外部身体信息捕捉;S2、将扫描所得信息创建虚拟形象;S3、虚拟形象与人体动作同步;S4、生成虚拟人物;S5、实时显示生成的虚拟人物信息;S6、实时显示的虚拟人物与储存的其他虚拟人物或使用者进行交互。本发明专利技术通过面部信息和身体信息的捕捉与同步,提供更加逼真的虚拟人物模拟效果,增强用户的沉浸感和参与感;同时使用设备显示器进行实时显示生成的虚拟人物信息,且支持与储存的其他虚拟人物或使用者进行实时交互,使得用户可以立即看到虚拟人物的变化,并与其进行即时交互,增强了沟通和互动的效果。效果。效果。

【技术实现步骤摘要】
一种基于人工智能的虚拟现实人体模型生成及交互方法


[0001]本专利技术涉及虚拟现实
,具体为一种基于人工智能的虚拟现实人体模型生成及交互方法。

技术介绍

[0002]虚拟现实技术是一种可以创建和体验虚拟世界的虚拟仿真系统,它利用虚拟现实交互设备生成一种模拟环境,是一种多源信息融合的交互式的三维动态视景和实体行为的系统仿真,使用户沉浸到该环境中。
[0003]但是,现有的虚拟现实技术中,虚拟人类往往都是通过人类根据自己的认知构建出来的,并通过预先设置好的话术或者动作进行重复作业,因此虚拟人类的智能化水平要远远低于真实人类本身的水平,使得使用者与之交互时体验较差;另一方面,如何使得真实人类以一定的智慧存在于网络之中一直是人们所向往的。

技术实现思路

[0004]针对现有技术的不足,本专利技术提供了一种基于人工智能的虚拟现实人体模型生成及交互方法,解决了传统虚拟现实技术中使用者与虚拟模型交互时体验较差的问题。
[0005]为实现以上目的,本专利技术通过以下技术方案予以实现:一种基于人工智能的虚拟现实人体模型生成及交互方法,包括以下步骤:
[0006]S1、通过虚拟现实交互设备对佩戴者进行面部信息捕捉及外部身体信息捕捉;
[0007]S2、利用AI将内外部扫描所得信息进行组合同步,创建出使用者的虚拟形象,并进行储存;
[0008]S3、由AI通过对身体进行动态智能捕捉或添加空间锚点同步捕捉来实现虚拟形象与人体动作同步,再由实时面部扫描将面部表情与虚拟形象同步;<br/>[0009]S4、根据储存的使用者虚拟形象信息,生成虚拟人物;
[0010]S5、在设备显示器上实时显示生成的虚拟人物信息详情;
[0011]S6、实时显示的虚拟人物与储存的其他虚拟人物或使用者进行交互。
[0012]优选的,所述方法还包括:通过设备的听觉输入设备接收来自使用者的语音输入,并通过AI对接收到的语音输入进行识别和解析,再合成到虚拟人物的语音回应。
[0013]优选的,步骤S5中,使用者在与设备屏幕实时显示的虚拟人物进行互动过程中,使用机器学习或深度学习模型持续优化虚拟形象的响应和行为特性。
[0014]优选的,所述设备屏幕实时显示的虚拟人物包括不同使用者的虚拟形象。
[0015]优选的,所述方法还包括:通过虚拟服装模型与用户的身体模型进行实时融合显示,实现虚拟试衣。
[0016]优选的,所述虚拟服装模型包括样式库内的服装模型以及交互设备捕捉的服装模型。
[0017]本专利技术提供一种基于人工智能的虚拟现实人体模型生成及交互系统,包括:
[0018]采集模块,用于采集使用者的面部信息和身体信息的扫描;
[0019]图像处理同步模块,用于创建并储存使用者的虚拟形象;
[0020]行为特征捕捉模块,用于捕捉并储存使用者的行为特征;
[0021]实时定位模块,用于设定空间锚点,动态捕捉和建模使用者形象;
[0022]虚拟人物生成模块,用于根据储存的使用者虚拟形象和行为特征生成虚拟人物;
[0023]显示模块,用于实时显示由AI处理和生成的虚拟人物;
[0024]交互模块,用于实现虚拟人物与其他虚拟人物或实际用户之间的交互。
[0025]优选的,所述系统还包括:
[0026]听觉输入设备,用于接收来自使用者的语音输入;
[0027]识别解析模块,用于识别和解析接收到的语音输入;
[0028]语音合成模块,用于生成虚拟人物的语音回应。
[0029]优选的,所述系统还包括:
[0030]持续优化模块,用于使用机器学习或深度学习模型持续优化虚拟形象的响应和行为特性。
[0031]优选的,所述系统还包括:
[0032]服装融合模块,用于通过虚拟服装模型与用户的身体模型进行实时融合显示,实现虚拟试衣。
[0033]本专利技术提供了一种基于人工智能的虚拟现实人体模型生成及交互方法。
[0034]具备以下有益效果:
[0035]1、本专利技术通过面部信息和身体信息的捕捉与同步,以及实时面部扫描的应用,虚拟形象与使用者的外貌和表情保持同步,提供更加逼真的虚拟人物模拟效果,增强用户的沉浸感和参与感;同时使用设备显示器进行实时显示生成的虚拟人物信息,且支持与储存的其他虚拟人物或使用者进行实时交互,使得用户可以立即看到虚拟人物的变化,并与其进行即时交互,增强了沟通和互动的效果。
[0036]2、本专利技术通过虚拟服装模型与用户的身体模型进行实时融合显示,实现虚拟试衣,使用户可以在虚拟现实环境中体验虚拟试衣的感觉,避免了传统试衣的限制,提供了更加便捷和沉浸式的试衣体验,同时,虚拟试衣可以帮助用户更好地选择合适的衣服款式和尺码,提供个性化的购物建议,提供了全新的虚拟试衣体验。
附图说明
[0037]图1为本专利技术的方法流程示意图;
[0038]图2为本专利技术的系统架构示意图。
具体实施方式
[0039]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0040]请参阅附图1

附图2,本专利技术实施例提供一种基于人工智能的虚拟现实人体模型
生成及交互方法,包括以下步骤:
[0041]S1、通过虚拟现实交互设备对佩戴者进行面部信息捕捉及外部身体信息捕捉;
[0042]在这一步骤中,虚拟现实交互设备(如头戴式显示器、定位跟踪设备等)用于捕捉佩戴者的面部信息和外部身体信息。面部信息可以包括微笑、眨眼等表情,戴上虚拟现实设备后,内置摄像头捕捉面部表情,外部身体信息可以包括身体姿势、肢体运动等。这些信息的捕捉可以通过传感器、摄像头等设备进行;
[0043]具体的,虚拟现实交互设备对外界信息接受传感器为途径,获得外界反射肢体信息,如,镜子,外接接摄像头,外接录制设备等方式,通过用虚拟现实交互设备捕捉镜面中佩戴者的肢体反应将其与捕捉的面部反应进行组合,实时更新动作,实现将现实世界人物完全投影至虚拟世界中;
[0044]具体而言,以下是一种实现方案:
[0045]传感器:使用外接的接摄像头或其他合适的传感器,以捕捉用户的肢体动作和姿态。这些传感器可以放置在使用者身边或虚拟现实设备附近。
[0046]镜子和反射:虚拟现实设备可以配备一面镜子或反射面,用于捕捉用户在虚拟环境中的镜像。
[0047]肢体反应捕捉:通过镜面或反射面,虚拟现实设备可以捕捉用户的镜像中的肢体反应。这可以包括手臂的动作、身体姿势的变化等。
[0048]面部反应捕捉:虚拟现实设备可以使用内置摄像头或其他面部跟踪技术,捕捉用户的面部表情和动作。
[0049]动作组合和更新本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于人工智能的虚拟现实人体模型生成及交互方法,其特征在于,包括以下步骤:S1、通过虚拟现实交互设备对佩戴者进行面部信息捕捉及外部身体信息捕捉;S2、利用AI将内外部扫描所得信息进行组合同步,创建出使用者的虚拟形象,并进行储存;S3、由AI通过对身体进行动态智能捕捉或添加空间锚点同步捕捉来实现虚拟形象与人体动作同步,再由实时面部扫描将面部表情与虚拟形象同步;S4、根据储存的使用者虚拟形象信息,生成虚拟人物;S5、在设备显示器上实时显示生成的虚拟人物信息详情;S6、实时显示的虚拟人物与储存的其他虚拟人物或使用者进行交互。2.根据权利要求1所述的一种基于人工智能的虚拟现实人体模型生成及交互方法,其特征在于,所述方法还包括:通过设备的听觉输入设备接收来自使用者的语音输入,并通过AI对接收到的语音输入进行识别和解析,再合成到虚拟人物的语音回应。3.根据权利要求2所述的一种基于人工智能的虚拟现实人体模型生成及交互方法,其特征在于,步骤S5中,使用者在与设备屏幕实时显示的虚拟人物进行互动过程中,使用机器学习或深度学习模型持续优化虚拟形象的响应和行为特性。4.根据权利要求3所述的一种基于人工智能的虚拟现实人体模型生成及交互方法,其特征在于,所述设备屏幕实时显示的虚拟人物包括不同使用者的虚拟形象。5.根据权利要求1所述的一种基于人工智能的虚拟现实人体模型生成及交互方法,其特征在于,所述方法还包括:通过虚拟服装模型与用户的身体模型进行实时融合显示,实现虚拟试衣。6.根据权利要求5所述的一种基于人...

【专利技术属性】
技术研发人员:郭有恒
申请(专利权)人:郭有恒
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1