表情动画数据处理方法、装置、计算机设备和存储介质制造方法及图纸

技术编号:21892754 阅读:32 留言:0更新日期:2019-08-17 14:50
本申请涉及一种表情动画数据处理方法、装置、计算机可读存储介质和计算机设备,所述方法包括:确定人脸在图像中的位置,获取虚拟形象模型;根据人脸在图像中的位置和三维脸部模型获取当前表情数据;从当前表情数据获取表情变化数据;确定与表情变化数据匹配的目标分割表情区域,目标分割表情区域是从虚拟形象模型对应的各个分割表情区域中选取得到的;获取与目标分割表情区域匹配的目标基础虚拟形象数据,根据表情变化数据组合目标基础虚拟形象数据生成加载表情数据;将加载表情数据加载到目标分割表情区域以更新虚拟形象模型对应的虚拟动画形象的表情。本申请提供的方案可以实现减小表情数据计算量从而提高表情数据处理效率。

Data Processing Method, Device, Computer Equipment and Storage Medium for Emotional Animation

【技术实现步骤摘要】
表情动画数据处理方法、装置、计算机设备和存储介质
本申请涉及计算机
,特别是涉及一种表情动画数据处理方法、装置、计算机可读存储介质和计算机设备。
技术介绍
随着计算机技术的发展,出现了虚拟形象建模技术,在用户录制视频时,虚拟形象模型可根据视频画面中行为主体的表情形成同步相对应的表情。然而,目前的传统方法在虚拟形象模型进行表情加载的时候,需将虚拟形象模型所需的全部表情数据都进行加载,由于加载了许多非必要的部分表情数据不仅导致虚拟动画形象的表情数据计算量大,而且加载过多的表情数据导致效率低下等问题。
技术实现思路
基于此,有必要针对上述技术问题,提供一种能够减小表情数据计算量从而提高表情数据处理效率的表情动画数据处理方法、装置、计算机可读存储介质和计算机设备。一种表情动画数据处理方法,该方法包括:确定人脸在图像中的位置,获取虚拟形象模型;根据人脸在图像中的位置和三维脸部模型获取当前表情数据;从当前表情数据获取表情变化数据;确定与表情变化数据匹配的目标分割表情区域,目标分割表情区域是从虚拟形象模型对应的各个分割表情区域中选取得到的;获取与目标分割表情区域匹配的目标基础虚拟形象数据,根据表情变化数据组合目标基础虚拟形象数据生成加载表情数据;将加载表情数据加载到目标分割表情区域以更新虚拟形象模型对应的虚拟动画形象的表情。一种表情动画数据处理装置,该装置包括:当前表情数据获取模块,用于确定人脸在图像中的位置,获取虚拟形象模型,根据人脸在图像中的位置和三维脸部模型获取当前表情数据;表情更新数据获取模块,用于从当前表情数据获取表情变化数据;目标分割表情区域检测模块,用于确定与表情变化数据匹配的目标分割表情区域,目标分割表情区域是从虚拟形象模型对应的各个分割表情区域中选取得到的;目标基础虚拟形象数据获取模块,用于获取与目标分割表情区域匹配的目标基础虚拟形象数据,根据表情变化数据组合目标基础虚拟形象数据生成加载表情数据;虚拟动画形象更新模块,用于将加载表情数据加载到目标分割表情区域以更新虚拟形象模型对应的虚拟动画形象的表情。一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,该处理器执行所述程序时实现以下步骤:确定人脸在图像中的位置,获取虚拟形象模型;根据人脸在图像中的位置和三维脸部模型获取当前表情数据;从当前表情数据获取表情变化数据;确定与表情变化数据匹配的目标分割表情区域,目标分割表情区域是从虚拟形象模型对应的各个分割表情区域中选取得到的;获取与目标分割表情区域匹配的目标基础虚拟形象数据,根据表情变化数据组合目标基础虚拟形象数据生成加载表情数据;将加载表情数据加载到目标分割表情区域以更新虚拟形象模型对应的虚拟动画形象的表情。一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:确定人脸在图像中的位置,获取虚拟形象模型;根据人脸在图像中的位置和三维脸部模型获取当前表情数据;从当前表情数据获取表情变化数据;确定与表情变化数据匹配的目标分割表情区域,目标分割表情区域是从虚拟形象模型对应的各个分割表情区域中选取得到的;获取与目标分割表情区域匹配的目标基础虚拟形象数据,根据表情变化数据组合目标基础虚拟形象数据生成加载表情数据;将加载表情数据加载到目标分割表情区域以更新虚拟形象模型对应的虚拟动画形象的表情。上述表情动画数据处理方法、装置、计算机可读存储介质和计算机设备,确定人脸在图像中的位置,获取虚拟形象模型,再根据人脸在图像中的位置和三维脸部模型获取行为主体的当前表情数据,从当前表情数据中获取行为主体的表情变化数据,根据表情变化数据从虚拟形象模型的各个分割表情区域中获取匹配的目标分割表情区域,进一步获取目标分割表情区域匹配的目标基础虚拟形象数据从而生成加载表情数据,最后将加载表情数据加载到目标分割表情区域使得虚拟形象模型对应的虚拟动画形象的表情进行更新。因此在虚拟形象模型进行加载表情时,只加载表情更新部分对应的表情数据从而减少虚拟动画形象的计算量,提高虚拟动画形象表情更新的效率。附图说明图1为一个实施例中表情动画数据处理方法的应用环境图;图2为一个实施例中表情动画数据处理方法的流程示意图;图3为另一个实施例中表情动画数据处理方法的流程示意图;图4为一个实施例中虚拟动画形象运动部位的示意图;图5为一个实施例中用于控制第二运动部位的骨骼的示意图;图6为一个实施例中第一运动部位为头部转动时耳朵弯曲的示意图;图7为一个实施例中第一运动部位为嘴部进行张开时舌头伸出的示意图;图8为一个实施例中确定骨骼控制数据的流程示意图;图9为另一个实施例中确定骨骼控制数据的流程示意图;图10为再一个实施例中确定骨骼控制数据的流程示意图;图11为又一个实施例中表情动画数据处理方法的流程示意图;图12为一个实施例中虚拟动画形象在终端显示的界面示意图;图13为再一个实施例中表情动画数据处理方法的流程示意图;图14为一个实施例中确定目标分割表情区域的流程示意图;图15为一个实施例中表情动画数据处理方法的流程示意图;图16为一个实施例中各个分割表情区域对应的子基本虚拟形象模型集;图17为一个实施例中生成加载表情数据的流程示意图;图18为一个实施例中将加载表情数据加载到目标分割表情区域的流程示意图;图19为一个实施例中生成加载表情数据的流程示意图;图20为一个实施例中根据权重加载表情数据的示意图;图21为一个实施例中获取表情变化数据的流程示意图;图22为另一个实施例中获取表情变化数据的流程示意图;图23为一个实施例中虚拟动画形象所处虚拟环境下发背景图像的示意图;图24为一个实施例中表情动画数据处理装置的结构框图;图25为另一个实施例中表情动画数据处理装置的结构框图;图26为又一个实施例中表情动画数据处理装置的结构框图;图27为再一个实施例中表情动画数据处理装置的结构框图;图28为一个实施例中目标分割表情区域检测模块的结构框图;图29为另一个实施例中表情动画数据处理装置的结构框图;图30为一个实施例中虚拟动画形象更新模块的结构框图;图31为一个实施例中目标基础虚拟形象数据获取模块的结构框图;图32为一个实施例中计算机设备的结构框图。具体实施方式为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。图1为一个实施例中表情动画数据处理方法的应用环境图。参照图1,该表情动画数据处理方法应用于表情动画数据处理系统。该表情动画数据处理系统包括终端110和服务器120。终端110通过拍摄采集装置采集到行为主体的脸部后,确定人脸在图像中的位置,获取虚拟形象模型,再根据终端中的三维脸部模型获取拍摄采集装置采集到的行为主体的当前表情数据,从当前表情数据中获取表情变化数据,根据表情变化数据确定匹配的目标分割表情更新区域。进一步获取与目标分割表情更新区域匹配的目标基础虚拟形象数据,根据目标基础虚拟形象数据生成加载表情数据,将加载表情数据加载到目标分割表情区域从而更新虚拟形象模型对应的虚拟动画形象的表情。其中,终端110通过拍摄采集装置采集到行为主体的脸部后,可将采集到的行为主体的图像发送本文档来自技高网...

【技术保护点】
1.一种表情动画数据处理方法,包括:确定人脸在图像中的位置,获取虚拟形象模型;根据所述人脸在图像中的位置和三维脸部模型获取当前表情数据;从所述当前表情数据获取表情变化数据;确定与所述表情变化数据匹配的目标分割表情区域,所述目标分割表情区域是从虚拟形象模型对应的各个分割表情区域中选取得到的;获取与所述目标分割表情区域匹配的目标基础虚拟形象数据,根据所述表情变化数据组合所述目标基础虚拟形象数据生成加载表情数据;将所述加载表情数据加载到所述目标分割表情区域以更新所述虚拟形象模型对应的虚拟动画形象的表情。

【技术特征摘要】
1.一种表情动画数据处理方法,包括:确定人脸在图像中的位置,获取虚拟形象模型;根据所述人脸在图像中的位置和三维脸部模型获取当前表情数据;从所述当前表情数据获取表情变化数据;确定与所述表情变化数据匹配的目标分割表情区域,所述目标分割表情区域是从虚拟形象模型对应的各个分割表情区域中选取得到的;获取与所述目标分割表情区域匹配的目标基础虚拟形象数据,根据所述表情变化数据组合所述目标基础虚拟形象数据生成加载表情数据;将所述加载表情数据加载到所述目标分割表情区域以更新所述虚拟形象模型对应的虚拟动画形象的表情。2.根据权利要求1所述的方法,其特征在于,所述方法还包括:根据所述表情变化数据确定所述虚拟动画形象对应的第一运动部位;获取与所述第一运动部位相关联的第二运动部位;根据所述表情变化数据计算得到所述第一运动部位对应的运动状态数据;根据所述第一运动部位对应的运动状态数据确定所述第二运动部位对应的骨骼控制数据;根据所述骨骼控制数据控制所述第二运动部位对应的骨骼运动,以更新所述虚拟形象模型对应的虚拟动画形象的表情。3.根据权利要求2所述的方法,其特征在于,若所述第一运动部位为第一预设部位,所述根据所述表情变化数据计算得到所述第一运动部位对应的运动状态数据,根据所述第一运动部位对应的运动状态数据确定所述第二运动部位对应的骨骼控制数据,包括:根据所述表情变化数据计算得到所述第一预设部位对应的偏航角速度和俯仰角速度;根据所述俯仰角速度、预设最大俯仰角阈值和第一预设补偿值确定所述第二运动部位对应的第一骨骼控制数据;根据所述偏航角速度、预设最大偏航角阈值和与第二预设补偿值确定所述第二运动部位对应的第二骨骼控制数据;根据所述第一骨骼控制数据和所述第二骨骼控制数据确定所述第二运动部位对应的骨骼控制数据。4.根据权利要求2所述的方法,其特征在于,若所述第一运动部位为第二预设部位,所述根据所述表情变化数据计算得到所述第一运动部位对应的运动状态数据,根据所述第一运动部位对应的运动状态数据确定所述第二运动部位对应的骨骼控制数据,包括:根据所述表情变化数据计算得到所述第二预设部位对应的表情变化系数;根据所述表情变化系数和预设最大俯仰角阈值确定所述第二运动部位对应的骨骼控制数据。5.根据权利要求2所述的方法,其特征在于,若所述第一运动部位为第三预设部位,所述根据所述表情变化数据计算得到所述第一运动部位对应的运动状态数据,根据所述第一运动部位对应的运动状态数据确定所述第二运动部位对应的骨骼控制数据,包括:根据所述表情变化数据计算得到所述第三预设部位对应的表情变化系数;根据所述表情变化数据计算得到所述第三预设部位对应的俯仰角方向值和偏航角方向值;根据所述表情变化系数、所述俯仰角方向值和预设最大俯仰角阈值确定所述第三预设部位对应的第一骨骼控制数据;根据所述表情变化系数、所述偏航角方向值和预设最大偏航角阈值确定所述第三预设部位对应的第二骨骼控制数据;根据所述第一骨骼控制数据和所述第二骨骼控制数据确定所述第三预设部位对应的骨骼控制数据。6.根据权利要求1所述的方法,其特征在于,所述方法还包括:获取参照点,根据所述参照点确定虚拟空间坐标原点,根据所述虚拟空间坐标原点建立虚拟空间;获取行为主体相对于所述参照点的相对位置;根据所述相对位置确定所述行为主体对应的虚拟动画形象在所述虚拟空间的目标位置,根据所述目标位置在所述虚拟空间生成所述行为主体对应的初始虚拟动画形象。7.根据权利要求1所述的方法,其特征在于,所述方法还包括:获取语音数据,根据所述语音数据确定对应的当前第二运动部位;获取与所述当前第二运动部位对应的骨骼动画,播放所述骨骼动画,以更新所述虚拟形象模型对应的虚拟动画形象的表情。8.根据权利要求1所述的方法,其特征在于,所述确定与所述表情变化数据匹配的目标分割表情区域,包括:根据所述表情变化数据确定所述虚拟动画形象对应的当前运动部位;获取所述虚拟形象模型对应的预设多个分割表情区域;从所述预设多个分割表情区域中获取与所述当前运动部位匹配的目标分割表情区域。9.根据权利要求1所述的方法,其特征在于,所述方法还包括:从所述虚拟形象模型对应的各个分割表情区域中获取当前分割表情区域;获取所述当前分割表情区域对应的子基本虚拟形象模型集;对所述子基本虚拟形象模型集中的各个子基本虚拟形象模型进行多次不同的非线性组合生成对应的多个子混合虚拟形象模型,组成所述当前分割表情区域对应的子混合虚拟形象模型集;从所述各个分割表情区域中获取下一个分割表情区域作为所述当前分割表情区域,返回所述获取所述当前分割表情区域对应的子基本虚拟形象模型集的步骤,直到得到所述各个分割表情区域对应的子混合虚拟形象模型集;将所述各个分割表情区域对应的子基本虚拟形象模型集和子混合虚拟形象模型集组成基础虚拟形象数据,所述目标基础虚拟形象数据是从所述基础虚拟形象数据中选取得到的。10.根据权利要求1所述的方法,其特征在于,所述目标基础虚拟形象数据包括多个目标子基本虚拟形象模型和多个目标子混合虚拟形象模型,所述根据所述表情变化数据组合所述目标基础虚拟形象数据生成加载表情数据,包括::根据所述表情变化数据计算得到各个目标子基本虚拟形象模型和各个目标子混合虚拟形象模型对应的组合系数;根据所述组合系数将所述多个目标子基本虚拟形象模型和多个目标子混合虚拟形象模型进行线性组合生成所述加载表情数据。11.根据权利要求1所述的方法,其特征在于,所述将所述加载表情数据加载到所述目标分割表情区域的步骤,包括:获取当前顶点位置集合,所述当前顶点位置集合由生成所述加载表情数据的各个目标子基础虚拟形象模型对应的当前顶点位置组成;根据所述当前顶点位置集合确定所述加载表情数据对应的网格的当前目标顶点位置;获取下一个顶点位置集合,根据所述下一个顶点位置集合确定所述加载表情数据对应的网格的下一个目标顶点位置,直至确定所述加载表情数据对应的网格的各个目标顶点位置。12.根据权利要求1所述的方法,其特征在于,当所述表情变化数据对应多个目标表情更新时,所述获取与所述目标分割表情区域匹配的目标基础虚拟形象数据,根据所述表情变化数据组合所述目标基础虚拟形象数据生成加载表情数据,包括:获取各个所述目标表情对应的预设权重系数;根据各个目标表情对应的预设权重系数的大小关系,确定各个所述目标表情对应的加载表情数据的生成顺序;所述将所述加载表情数据加载到所...

【专利技术属性】
技术研发人员:郭艺帆刘楠薛丰
申请(专利权)人:腾讯科技深圳有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1