【技术实现步骤摘要】
一种虚拟角色的场景合成方法及系统
本专利技术涉及音视频传输领域,特别是涉及一种虚拟角色的场景合成方法及系统。
技术介绍
如今,在视听通信设备上进行视频播放已经十分普遍,视频中的交流对象往往是用户的真实形象,随着人脸采集技术和建模技术的不断发展,人脸采集技术和建模技术常常应用在动画、影视、游戏等许多重要的领域,尤其是需要人机互动的娱乐游戏领域、虚拟直播领域、3D动画领域。虚拟角色的动画包括肢体动画和表情动画两部分,为了实现虚拟角色的逼真效果,单纯的肢体动画已经无法满足用户的需求,逼真的表情动画是提升用户使用体验的重要因素。例如将真人直播可以替换为卡通人物、动物、名人进行直播,两个陌生人之间也可以各自选择不同的虚拟形象进行视频聊天等等。但是现有技术中不能将获取的虚拟角色的场景进行合成,仅仅只能够显示预制的场景画面,个性化不足,不能给用户更好的使用体验。
技术实现思路
本专利技术提供了一种虚拟角色的场景合成方法及系统,其目的是实时合成虚拟角色的场景,提升趣味性和多样性。本专利技术提供的技术方案如下:本专利技术提供一种虚拟角色的场景合成方法,包括步骤:S100获取虚拟角色相关 ...
【技术保护点】
一种虚拟角色的场景合成方法,其特征在于,包括步骤:S100获取虚拟角色相关数据;所述虚拟角色相关数据包括各个表演者对应的虚拟角色、面部表情图像信息和虚拟角色背景;S200根据所述虚拟角色相关数据,将所述虚拟角色背景进行合成,得到虚拟合成场景。
【技术特征摘要】
1.一种虚拟角色的场景合成方法,其特征在于,包括步骤:S100获取虚拟角色相关数据;所述虚拟角色相关数据包括各个表演者对应的虚拟角色、面部表情图像信息和虚拟角色背景;S200根据所述虚拟角色相关数据,将所述虚拟角色背景进行合成,得到虚拟合成场景。2.根据权利要求1所述的场景合成方法,其特征在于,所述步骤S220包括步骤:S210接收合成指令,将所述虚拟角色背景进行合成得到合成场景;S220判断所述合成场景的变化范围是否超过预设变化范围;若是,执行步骤S230;否则,执行步骤S240;S230将预设合成场景表中的任一预设合成场景,作为所述虚拟合成场景;S240将所述合成场景作为所述虚拟合成场景。3.根据权利要求1所述的场景合成方法,其特征在于,所述步骤S100包括步骤:S110接收所述表演者的入场请求,获取入场表演者的虚拟角色相关数据;S120接收所述入场表演者的预设控制指令,获取对应与所述预设控制指令对应的控制参数信息。4.根据权利要求3所述的场景合成方法,其特征在于,所述控制参数信息包括:动作参数信息、道具参数信息、毛发参数信息中的任意一种或多种。5.根据权利要求1-4任一项所述的场景合成方法,其特征在于,所述步骤S200之后包括步骤:S300在所述虚拟合成场景中,根据所述虚拟角色相关数据,控制所述虚拟角色进行演示。6.一种虚拟角色的场景合成系统,其特征在于,包括:获取模块,获取虚拟角色相关数据;所述虚拟角色相关数据包括各个表演者对应的虚拟角色、面部表...
【专利技术属性】
技术研发人员:郑辰,
申请(专利权)人:上海微漫网络科技有限公司,
类型:发明
国别省市:上海,31
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。