【技术实现步骤摘要】
一种虚拟人物的合成方法、装置、设备及存储介质
本公开实施例涉及图像处理
,尤其涉及一种虚拟人物的合成方法、装置、设备及存储介质。
技术介绍
在人工智能领域,利用虚拟人物生成视频的需求和应用越来越广泛。通过传统方式合成的虚拟人物的表情和动作真实感较低,无法满足用户的需求。公开内容本公开实施例提供一种虚拟人物的合成方法、装置、设备及存储介质,可以提高虚拟人物合成结果的准确性。第一方面,本公开实施例提供了一种虚拟人物的合成方法,包括:获取人体驱动参数和包含预置形象的二维图片,所述人体驱动参数包括形象驱动参数和骨骼驱动参数;根据所述二维图片获取包含所述预置形象的关键点检测结果的第一图片,并根据所述形象驱动参数和第一图片,生成包含形象合成结果的第二图片;根据所述二维图片生成所述预置形象的人体模型,并根据所述人体模型和二维图片生成所述预置形象的三维网格模型,所述三维网格模型包含所述预置形象的服饰信息和纹理特征;根据所述骨骼驱动参数驱动所述三维网格模型,并对驱动后的三维网格模型进行渲染,得到第三图片;融合所述第二图片和第三图片,得到包含虚拟人物合成结果的目标图片。第二方面,本公开实施例还提供了一种虚拟人物的合成装置,包括:获取模块,用于获取人体驱动参数和包含预置形象的二维图片,所述人体驱动参数包括形象驱动参数和骨骼驱动参数;形象合成结果生成模块,用于根据所述二维图片得到包含所述预置形象的关键点检测结果的第一图片,并根据所述形象驱动 ...
【技术保护点】
1.一种虚拟人物的合成方法,其特征在于,包括:/n获取人体驱动参数和包含预置形象的二维图片,所述人体驱动参数包括形象驱动参数和骨骼驱动参数;/n根据所述二维图片获取包含所述预置形象的关键点检测结果的第一图片,并根据所述形象驱动参数和第一图片,生成包含形象合成结果的第二图片;/n根据所述二维图片生成所述预置形象的人体模型,并根据所述人体模型和二维图片生成所述预置形象的三维网格模型,所述三维网格模型包含所述预置形象的服饰信息和纹理特征;/n根据所述骨骼驱动参数驱动所述三维网格模型,并对驱动后的三维网格模型进行渲染,得到第三图片;/n融合所述第二图片和第三图片,得到包含虚拟人物合成结果的目标图片。/n
【技术特征摘要】
1.一种虚拟人物的合成方法,其特征在于,包括:
获取人体驱动参数和包含预置形象的二维图片,所述人体驱动参数包括形象驱动参数和骨骼驱动参数;
根据所述二维图片获取包含所述预置形象的关键点检测结果的第一图片,并根据所述形象驱动参数和第一图片,生成包含形象合成结果的第二图片;
根据所述二维图片生成所述预置形象的人体模型,并根据所述人体模型和二维图片生成所述预置形象的三维网格模型,所述三维网格模型包含所述预置形象的服饰信息和纹理特征;
根据所述骨骼驱动参数驱动所述三维网格模型,并对驱动后的三维网格模型进行渲染,得到第三图片;
融合所述第二图片和第三图片,得到包含虚拟人物合成结果的目标图片。
2.根据权利要求1所述的方法,其特征在于,所述目标图片用于生成视频,所述获取人体驱动参数,包括:
解析待生成视频的视频文案,得到所述视频文案包含的角色信息以及与所述角色信息对应的台词文本;
针对每一个角色信息,解析与所述角色信息对应的台词文本,得到各时间点对应的骨骼驱动参数;
将与所述角色信息对应的台词文本转换成音频信号,并根据所述音频信号的语音特征生成各时间点对应的第一表情参数和头部姿态参数;
对于所述各时间点中的每个时间点,若当前时间点不存在对应的表情脚本信息,则将所述当前时间点对应的所述第一表情参数作为表情驱动参数;若所述当前时间点存在对应的表情脚本信息,则解析所述对应的表情脚本信息,获取与所述对应的表情脚本信息对应的表情模板,得到第二表情参数;融合所述第一表情参数和第二表情参数,得到表情驱动参数;
将所述表情驱动参数、头部姿态参数和骨骼驱动参数作为与所述角色信息对应的人体驱动参数。
3.根据权利要求2所述的方法,其特征在于,所述融合所述第一表情参数和第二表情参数,得到表情驱动参数,包括:
确定所述表情脚本信息所对应表情出现的时间点以及所述所对应表情存在的持续时间;
根据当前时间点、所述表情脚本信息所对应表情出现的时间点以及所述所对应表情存在的持续时间,确定所述第二表情参数在当前时间点的权重,所述当前时间点为所述持续时间开始和结束之间的时间点;
根据所述权重对所述第二表情参数加权,并将加权后的第二表情参数与当前时间点第一表情参数的和,作为表情驱动参数。
4.根据权利要求1所述的方法,其特征在于,所述获取人体驱动参数,包括:
采集包含样本形象的视频流,得到包含样本形象的图像帧,并确定所述图像帧中样本形象的头部姿态参数、关键点的位置信息以及骨骼驱动参数;
根据设定时间内所述关键点的位置变化确定所述样本形象所处的模式,所述位置变化为所述关键点在所述设定时间内各个时间点的位置变化;
确定与所述模式对应的表情基以及所述表情基的权重,所述表情基包括表情对应的关键点的位置信息;
根据所述表情基和所述表情基的权重,确定所述样本形象在所述模式下的表情驱动参数;
将所述头部姿态参数、表情驱动参数和骨骼驱动参数作为人体驱动参数。
5.根据权利要求4所述的方法,其特征在于,所述模式包括说话模式或表情模式;
所述确定与所述模式对应的表情基以及所述表情基的权重,包括:
当所述模式为说话模式时,获取与所述说话模式对应的第一表情基;根据所述关键点在所述第一表情基中的位置和所述关键点在样本形象中的位置,确定所述第一表情基的权重;
当所述模式为表情模式时,获取与所述表情模式对应的第二表情基;根据所述关键点在所述第二表情基中的位置和所述关键点在样本形象中的位置,确定所述第二表情基的权重。
6.根据权利要...
【专利技术属性】
技术研发人员:焦少慧,张启军,杜绪晗,程京,苏再卿,肖勤,张清源,王悦,
申请(专利权)人:北京字节跳动网络技术有限公司,
类型:发明
国别省市:北京;11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。