状态数据同步方法、装置、设备及存储介质制造方法及图纸

技术编号:34484628 阅读:20 留言:0更新日期:2022-08-10 09:01
本公开涉及一种状态数据同步方法、装置、设备及存储介质。该方法包括:获取目标对象的状态数据,其中,状态数据至少包括初始动作数据和初始表情数据;将初始动作数据与各动作类型对应的标准动作数据进行匹配,得到目标动作类型对应的目标动作数据,以及将初始表情数据与各表情类型对应的标准表情数据进行匹配,得到目标表情类型对应的目标表情数据;根据目标动作数据和目标表情数据分别携带的状态发生时刻,将目标动作数据和目标表情数据同步到目标模型上。根据本公开实施例,能够将用户的真实状态同步到虚拟人物的模型上,且用户的真实状态是符合标准的状态,因此提高了交互方式的灵活性,最终满足了用户的多样化的交互体验。最终满足了用户的多样化的交互体验。最终满足了用户的多样化的交互体验。

【技术实现步骤摘要】
状态数据同步方法、装置、设备及存储介质


[0001]本公开涉及计算机
,尤其涉及一种状态数据同步方法、装置、设备及存储介质。

技术介绍

[0002]在虚拟现实、游戏娱乐、可视电话、电影特效以及全真3D课堂等场景,往往会创建虚拟人物的模型,使得用户与虚拟人物的模型进行互动。
[0003]目前创建的虚拟人物的模型与用户的交互方式灵活性较差。例如,用户一般通过传统的问答方式、弹幕方式与虚拟人物的模型进行交互,无法将用户的真实状态同步到虚拟人物的模型上,导致无法满足用户的多样化的交互体验。

技术实现思路

[0004]为了解决上述技术问题,本公开提供了一种状态数据同步方法、装置、设备及存储介质。
[0005]第一方面,本公开提供了一种状态数据同步方法,该方法包括:
[0006]获取目标对象的状态数据,其中,状态数据至少包括初始动作数据和初始表情数据;
[0007]将初始动作数据与各动作类型对应的标准动作数据进行匹配,得到目标动作类型对应的目标动作数据,以及将初始表情数据与各表情类型对应的标准表情数据进行匹配,得到目标表情类型对应的目标表情数据;
[0008]根据目标动作数据和目标表情数据分别携带的状态发生时刻,将目标动作数据和目标表情数据同步到目标模型上。
[0009]第二方面,本公开提供了一种状态数据同步装置,该装置包括:
[0010]状态数据获取模块,用于获取目标对象的状态数据,其中,状态数据至少包括初始动作数据和初始表情数据;
[0011]匹配模块,用于将初始动作数据与各动作类型对应的标准动作数据进行匹配,得到目标动作类型对应的目标动作数据,以及将初始表情数据与各表情类型对应的标准表情数据进行匹配,得到目标表情类型对应的目标表情数据;
[0012]数据同步模块,用于根据目标动作数据和目标表情数据分别携带的状态发生时刻,将目标动作数据和目标表情数据同步到目标模型上。
[0013]第三方面,本公开实施例还提供了一种状态数据同步设备,该设备包括:
[0014]处理器;
[0015]存储器,用于存储可执行指令;
[0016]其中,处理器用于从存储器中读取可执行指令,并执行可执行指令以实现上述第一方面所提供的状态数据同步方法。
[0017]第四方面,本公开实施例还提供了一种计算机可读存储介质,其上存储有计算机
程序,其中,存储介质存储有计算机程序,当计算机程序被处理器执行时,使得处理器实现上述第一方面所提供的状态数据同步方法。
[0018]本公开实施例提供的技术方案与现有技术相比具有如下优点:
[0019]本公开实施例的一种状态数据同步方法、装置、设备及存储介质,首先,获取目标对象的状态数据,其中,状态数据至少包括动作数据和表情数据;接着,将初始动作数据与各动作类型对应的标准动作数据进行匹配,得到目标动作类型对应的目标动作数据,以及将初始表情数据与各表情类型对应的标准表情数据进行匹配,得到目标表情类型对应的目标表情数据;最后,根据目标动作数据和目标表情数据分别携带的状态发生时刻,将目标动作数据和目标表情数据同步到目标模型上。由于目标对象的状态数据能够表征出目标对象的真实状态,并且,确定出的目标动作数据和目标表情数据是符合标准的动作数据和表情数据,因此,将目标动作数据和目标表情数据同步到目标模型上,能够将用户的真实状态同步到虚拟人物的模型上,且用户的真实状态是符合标准的状态,因此提高了交互方式的灵活性,最终满足了用户的多样化的交互体验。
附图说明
[0020]此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
[0021]为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0022]图1为本开实施例提供的一种状态数据同步系统的架构图;
[0023]图2为本公开实施例提供的一种状态数据同步方法的流程示意图;
[0024]图3为本公开实施例提供的另一种状态数据同步方法的流程示意图;
[0025]图4为本公开实施例提供的又一种状态数据同步方法的流程示意图;
[0026]图5为本公开实施例提供的一种状态数据同步系统的结构示意图;
[0027]图6为本公开实施例提供的一种状态数据同步装置的结构示意图;
[0028]图7为本公开实施例提供的一种状态数据同步设备的结构示意图。
具体实施方式
[0029]下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
[0030]应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
[0031]本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定
义将在下文描述中给出。需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
[0032]需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
[0033]本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
[0034]在全真3D课堂场景,可以将老师与学生投影到虚拟3D世界中,从而给授课方式带来全新体验,例如,老师与学生可以穿越到古代且身临其境的感受诗人写诗是的场景,或者,老师和学生可以穿越到太空去体验宇航员的失重感觉。由此,全真3D课堂场景相较于传统的授课方式,全真3D课堂更灵活,并能更好的提升老师与学生的授课体验。
[0035]现有技术中,全真3D课堂场景下的虚拟人物的模型与用户的交互方式一般是:用户通过传统的问答方式或者弹幕方式与虚拟人物的模型进行交互,从而获取特定知识以及问题的结果,无法将学生和老师的真实的表情状态和动作状态进行交互,导致无法满足学生和老师的多样化的交互体验。另外,老师与学生的互动方式依赖于选项按钮、文字输入、语音输入等方式本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种状态数据同步方法,其特征在于,包括:获取目标对象的状态数据,其中,所述状态数据至少包括初始动作数据和初始表情数据;将所述初始动作数据与各动作类型对应的标准动作数据进行匹配,得到目标动作类型对应的目标动作数据,以及将所述初始表情数据与各表情类型对应的标准表情数据进行匹配,得到所述目标表情类型对应的目标表情数据;根据所述目标动作数据和所述目标表情数据分别携带的状态发生时刻,将所述目标动作数据和所述目标表情数据同步到目标模型上。2.根据权利要求1所述的方法,其特征在于,获取目标对象的初始动作数据,包括:获取所述目标对象的肢体图像;从所述肢体图像中提取所述目标对象的肢体特征点对应的区域色值数据,得到所述目标对象的初始动作数据。3.根据权利要求1所述的方法,其特征在于,获取目标对象的初始表情数据,包括:获取所述目标对象的面部图像;从所述面部图像中提取面部特征点;将所述面部特征点与预先获取的面部特征点进行匹配,得到所述目标对象的初始表情数据。4.根据权利要求1所述的方法,其特征在于,所述将所述初始动作数据与各动作类型对应的标准动作数据进行匹配,得到目标动作类型对应的目标动作数据,包括:对所述初始动作数据与各动作类型对应的标准动作数据进行动作拟合匹配,得到动作拟合匹配度;若存在大于或等于预设的动作匹配度阈值的目标动作拟合匹配度,则将所述目标动作拟合匹配度对应的动作类型,作为所述目标动作类型,以及将所述目标动作类型对应的标准动作数据,作为所述目标动作数据。5.根据权利要求4所述的方法,其特征在于,所述对所述初始动作数据与各动作类型对应的标准动作数据进行动作拟合匹配,得到动作拟合匹配度,包括:分别从所述初始动作数据与各所述动作类型对应的标准动作数据中提取动作特征点对;对所有所述动作特征点对进行动作拟合匹配,得到所有所述动作特征点对对应的拟合匹配度;对所有所述动作特征点对对应的拟合匹配度进行加权求和,得到所述动作拟合匹配度。6.根据权利要求1所述的方法,其特征在于,所述将所述初始表情数据与各表情类型对应的标准表情数据进行匹配,得到所述目标表情类型对应的目标表情数据,包括:若所述初始表情数据包括至少两个目标区域的表情数据,则对所述至少两个目标区域的表情数据与所述至少两个目标区域的标准表情数据进行表情组合匹配,得到至少所述两个目标区域的表情组合匹配度;若存在大于或等于预设的表情组合匹配度阈值的目标表情组合匹配度,则将所述目标表情组合匹配度对应的表情类型,作为所述目标表情类型,以及将所述目标表情类型对应
的标准表情数据,作为所述目标表情数据。7.根据权利要求6所述的方法,其特征在于,所述对至少所述两个目标区域的表情数据与至少所述两个目标区域的标准表情数据进行表情组合匹配,得到至少所述两个目标区域的表情组合匹配度,包括:针对每个所述目标区域,对所述初始表情数据与各动作类型对应的标准表情数据进行表情拟合匹配,得到表情拟合匹配度;若每个所述目标区域对应的表情拟合匹配度大于或等于预设的表情拟合匹配度阈值,则对至少两个所述目标区域对应的表情拟合匹配...

【专利技术属性】
技术研发人员:赵子龙
申请(专利权)人:北京新唐思创教育科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1