虚拟角色的面部显示方法、装置、设备及存储介质制造方法及图纸

技术编号:21903419 阅读:31 留言:0更新日期:2019-08-21 09:29
本申请公开了一种虚拟角色的面部显示方法、装置、终端及存储介质,涉及人机交互领域。该方法包括:获取用户人脸对应的面部参数,面部参数用于指示用户人脸上不同面部区域的面部特征;根据面部参数确定形变控制参数,形变控制参数用于指示虚拟角色上不同面部区域的形变程度;根据形变控制参数和形变图像集合生成虚拟角色面部图像,形变图像集合中包含虚拟角色的基础面部图像和n张基础面部形变图像;显示虚拟角色面部图像。相较于相关技术中,2D虚拟角色仅能呈现出预先设定的面部表情,本申请实施例中,能够驱动2D虚拟角色模拟出用户的实时表情,提高了呈现面部表情的智能化程度,达到了丰富2D虚拟角色面部呈现方式的效果。

Face Display Method, Device, Equipment and Storage Medium of Virtual Character

【技术实现步骤摘要】
虚拟角色的面部显示方法、装置、设备及存储介质
本申请实施例涉及人机交互领域,特别涉及一种虚拟角色的面部显示方法、装置、设备及存储介质。
技术介绍
为了增加用户在游戏过程中的代入感,越来越多的游戏应用开始支持虚拟角色选择功能,尤其是在角色扮演类游戏应用中。不同类型的游戏应用中,虚拟角色的类型可能不同,比如,虚拟角色可以是人物、动物或漫画人物等等。而在游戏过程中,用户可以通过实体按键或虚拟摇杆控制虚拟角色进行移动、攻击等操作。然而,在2D游戏中的,2D虚拟角色仅能够根据预先设置的游戏逻辑呈现出预先设定的面部表情,比如,在战斗失败时,2D虚拟角色根据游戏逻辑呈现出预先设定的伤心表情。可见,2D虚拟角色的面部呈现方式单一,智能化程度较差。
技术实现思路
本申请实施例提供了一种虚拟角色的面部显示方法、装置、终端及存储介质,可以解决2D虚拟角色的面部呈现方式单一,智能化程度较差的问题。所述技术方案如下:一方面,本申请实施例提供了一种虚拟角色的面部显示方法,所述方法包括:获取用户人脸对应的面部参数,所述面部参数用于指示所述用户人脸上不同面部区域的面部特征;根据所述面部参数确定形变控制参数,所述形变控制参数用于指示虚拟角色上不同面部区域的形变程度;根据所述形变控制参数和形变图像集合生成虚拟角色面部图像,所述形变图像集合中包含所述虚拟角色的基础面部图像和n张基础面部形变图像,其中,不同的基础面部形变图像对应不同的面部形变区域;显示所述虚拟角色面部图像。另一方面,本申请实施例提供了一种虚拟角色的面部显示装置,所述装置包括:第一获取模块,用于获取用户人脸对应的面部参数,所述面部参数用于指示所述用户人脸上不同面部区域的面部特征;确定模块,用于根据所述面部参数确定形变控制参数,所述形变控制参数用于指示虚拟角色上不同面部区域的形变程度;第一生成模块,用于根据所述形变控制参数和形变图像集合生成虚拟角色面部图像,所述形变图像集合中包含所述虚拟角色的基础面部图像和n张基础面部形变图像,其中,不同的基础面部形变图像对应不同的面部形变区域;显示模块,用于显示所述虚拟角色面部图像。另一方面,提供了一种终端,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述本申请实施例中提供的虚拟角色的面部显示方法。另一方面,提供了一种计算机可读存储介质,所述可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述本申请实施例中提供的虚拟角色的面部显示方法。另一方面,提供了一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得计算机执行如上述本申请实施例中提供的虚拟角色的面部显示方法。本申请实施例提供的技术方案带来的有益效果至少包括:通过获取用户人脸的面部参数,并根据该面部参数确定虚拟角色的形变控制参数,从而根据形变控制参数以及形变图像集合中的基础面部图像和基础面部形变图像,生成并显示虚拟角色面部图像;相较于相关技术中,2D虚拟角色仅能呈现出预先设定的面部表情,本申请实施例中,能够驱动2D虚拟角色模拟出用户的实时表情,提高了呈现面部表情的智能化程度,达到了丰富2D虚拟角色面部呈现方式的效果。附图说明为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1示出了本申请一个示例性实施例提供的应用场景的示意图;图2示出了本申请一个示例性实施例提供的虚拟角色的面部显示方法的方法流程图;图3是形变图像集合中基础面部图像和基础面部形变图像的示意图;图4是图2所示方法实施过程的界面示意图;图5是虚拟角色的面部显示方法的原理示意图;图6示出了本申请另一个示例性实施例提供的虚拟角色的面部显示方法的方法流程图;图7是图6所示实施例中生成虚拟角色面部图像过程的实施示意图;图8示出了本申请另一个示例性实施例提供的虚拟角色的面部显示方法的方法流程图;图9是人脸录入界面的界面示意图;图10是本申请一个示例性实施例提供的虚拟角色的面部显示装置的结构框图;图11示出了本专利技术一个示例性实施例提供的终端的结构框图。具体实施方式为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。本申请各个实施例提供的虚拟角色的面部显示方法,可以应用于安装有目标应用程序的终端中,该目标应用程序是具有2D虚拟角色显示需求的应用程序,该终端可以是智能手机、平板电脑、个人计算机或便携式计算机等等。比如,该目标应用程序是角色扮演类游戏、社交类应用程序、即时通信应用程序、相机类应用程序或表情制作类应用程序等等,本申请实施例对此不做限定。并且,由于目标应用程序中的2D虚拟角色能够模拟出用户的实时面部表情,因此安装有目标应用程序的终端具有外部图像采集功能。在一种可能的实施方式中,该终端内置有摄像头组件(比如前置摄像头),从而通过摄像头组件进行用户实时人脸图像的采集。下面结合几个示意性的应用场景,对本申请实施例提供的虚拟角色的面部显示方法进行说明。一、游戏场景在游戏场景下,本申请实施例提供的虚拟角色的面部显示方法可以实现成为游戏应用程序中的一个功能模块(用于驱动虚拟角色的面部)。用户控制虚拟角色进行游戏的过程中,游戏应用程序可以请求终端开启前置摄像头,并获取前置摄像头采集到的用户人脸图像。游戏应用程序对获取到的用户人脸图像进行处理后,得到虚拟角色对应的形变控制参数,从而根据该形变控制参数和形变图像集合,生成用户人脸图像中表情对应的虚拟角色面部图像,并将该虚拟角色面部图像显示在游戏画面中。其中,游戏应用程序可以根据用户人脸图像实时驱动虚拟角色做出相应的面部表情(即虚拟角色的面部表情与用户表情保持一致),从而增加用户在游戏过程中的代入感,提升用户的游戏体验。示意性的,如图1所示,终端11中安装有游戏应用程序,用户通过控制游戏应用程序中的虚拟角色“李四”进行战斗。当战斗失败时,游戏应用程序即通过终端11的前置摄像头12采集用户的人脸图像,从而根据该人脸图像驱动虚拟角色13呈现出相同的面部表情,增加用户在游戏过程中的代入感。二、即时通信场景在即时通信场景下,本申请实施例提供的虚拟角色的面部显示方法可以实现成为即时通信应用程序中的一个功能模块(借助虚拟角色进行视频聊天的功能)。在一种可能的使用场景下,用户之间进行视频通话前,可以为各自选择一个2D虚拟角色;在视频通话过程中,即时通信应用程序即启动终端的摄像头,并获取摄像头实时采集到的本端用户人脸图像。即时通信应用程序对本端用户人脸图像进行处理后,得到本端虚拟角色对应的第一形变控制参数,并将该第一形变控制参数发送给对端终端,同时接收对端终端发送的对端虚拟角色对应的第二形变控制参数。即时通信应用程序根据第二形变控制参数和对端虚拟角色对应的形变图像集合,生成对端用户的虚拟角色面部图像,并将该虚拟角色面部图像显示在视频通话界面中(也可同时显本文档来自技高网...

【技术保护点】
1.一种虚拟角色的面部显示方法,其特征在于,所述方法包括:获取用户人脸对应的面部参数,所述面部参数用于指示所述用户人脸上不同面部区域的面部特征;根据所述面部参数确定形变控制参数,所述形变控制参数用于控制虚拟角色上不同面部区域的形变程度;根据所述形变控制参数和形变图像集合生成虚拟角色面部图像,所述形变图像集合中包含所述虚拟角色的基础面部图像和n张基础面部形变图像,其中,不同的基础面部形变图像对应不同的面部形变方式;显示所述虚拟角色面部图像。

【技术特征摘要】
1.一种虚拟角色的面部显示方法,其特征在于,所述方法包括:获取用户人脸对应的面部参数,所述面部参数用于指示所述用户人脸上不同面部区域的面部特征;根据所述面部参数确定形变控制参数,所述形变控制参数用于控制虚拟角色上不同面部区域的形变程度;根据所述形变控制参数和形变图像集合生成虚拟角色面部图像,所述形变图像集合中包含所述虚拟角色的基础面部图像和n张基础面部形变图像,其中,不同的基础面部形变图像对应不同的面部形变方式;显示所述虚拟角色面部图像。2.根据权利要求1所述的方法,其特征在于,所述根据所述形变控制参数和形变图像集合生成虚拟角色面部图像,包括:根据所述形变控制参数确定n张所述基础面部形变图像中的目标基础面部形变图像,所述目标基础面部形变图像与所述形变控制参数对应同一面部形变方式;根据所述形变控制参数、所述基础面部图像和所述目标基础面部形变图像,生成所述虚拟角色面部图像。3.根据权利要求2所述的方法,其特征在于,所述根据所述形变控制参数、所述基础面部图像和所述目标基础面部形变图像,生成所述虚拟角色面部图像,包括:根据所述形变控制参数确定插值比例,所述插值比例包括所述基础面部图像对应的第一插值比例以及所述目标基础面部形变图像对应的第二插值比例,所述插值比例用于控制所述基础面部图像和所述目标基础面部形变图像之间的插值程度;根据所述基础面部图像和所述第一插值比例,以及所述目标基础面部形变图像和所述第二插值比例,生成所述虚拟角色面部图像。4.根据权利要求1至3任一所述的方法,其特征在于,所述根据所述面部参数确定形变控制参数,包括:获取参数映射关系,所述参数映射关系用于指示所述面部参数与所述形变控制参数之间的对应关系;根据所述参数映射关系,确定所述面部参数对应的所述形变控制参数。5.根据权利要求4所述的方法,其特征在于,所述虚拟角色为自定义虚拟角色,所述方法还包括:根据样本形变控制参数生成样本虚拟角色面部图像;在人脸录入界面显示所述样本虚拟角色面部图像,并获取样本人脸图像,所述样本人脸图像是用户模仿所述样本虚拟角色面部图像时采集的人脸图像;根据所述样本形变控制参数和所述样本人脸图像对应的样本面部参数,生成样本对应关系;根据多组所述样本对应关系,生成所述参数映射关系。6.根据权利要求1至3任一所述的方法,其特征在于,所述获取用户人脸对应的面部参数,包括:当处于目标场景时,通过摄像头采集所述用户人脸的人脸图像;根据所述人脸图像确定所述用户人脸对应的所述面部参数。7.根据权利要求6所述的方法,其特征在于,所述摄像头为深度摄像头,所述人脸图像中包括各个像素点对应的深度数据;所述根据所述人脸图像确定所述用户人脸对应的所述面部参数,包括:将所述人脸图像输入面部参数预测模型,得到所述面部参数预测模型输出的所述面部参数,所述面部参数预测模型是根据样本人脸深度图像以及所述样本人脸深度图像对应的样本面部参数训练得到的神经网络模型。8.一种虚拟角色的面部显示装置,其特征在于,所述装置包括:第一获取模块,用于获取用户人脸对应的面部参数,所...

【专利技术属性】
技术研发人员:沈超
申请(专利权)人:腾讯科技深圳有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1