System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及计算机,具体而言,涉及一种虚拟角色控制方法、一种虚拟角色控制装置、一种电子设备和一种存储介质。
技术介绍
1、随着科技的不断发展,数字角色扮演和互动已成为娱乐、教育以及其他应用领域的一种流行方式。从游戏、动画到虚拟现实(vr)等应用中,虚拟角色的情感表达与交互已经变得愈加重要。这使得数字角色的情绪感知识别成为一个极具潜力的研究领域。在当前的数字角色互动中,基于人类驱动的虚拟角色已经得到了广泛应用,但这种模式在某些情况下可能会显得不够自然。
技术实现思路
1、本专利技术旨在至少解决现有技术或相关技术中存在的技术问题之一。
2、为此,本专利技术的第一个方面提出了一种虚拟角色控制方法。
3、本专利技术的第二个方面提出了一种虚拟角色控制装置。
4、本专利技术的第三个方面提出了一种电子设备。
5、本专利技术的第四个方面提出了一种存储介质。
6、有鉴于此,根据本专利技术的第一个方面,提出了一种虚拟角色控制方法,包括:获取用户的语音数据;根据语音数据确定与语音数据相对应的第一情感特征;获取虚拟角色的第二情感特征;根据第一情感特征和第二情感特征确定情感类型;根据情感类型调整虚拟角色的面部表情和肢体动作。
7、本专利技术提供的虚拟角色控制方法,具体包括:首先需要建立一个虚拟角色模型,其中,该虚拟角色模型是一个详细的模型,其具有外貌、动作、语音等特征,并且这个虚拟角色模型需要尽可能地细致,以便能准确地表达每个虚拟角色
8、根据本专利技术的上述虚拟角色控制方法,还可以具有以下技术特征:
9、在一些技术方案中,可选地,根据语音数据确定与语音数据相对应的第一情感特征的步骤,包括:根据语音数据提取与语音数据对应的文本内容和音频特征;根据文本内容确定情感强度;根据情感强度和音频特征确定第一情感特征。
10、在该技术方案中,根据语音数据确定与语音数据相对应的第一情感特征的步骤,包括:首先通过语音识别技术将语音数据转换为文本内容以及在语音数据中提取关键的音频特征,其中,音频特征可以为音高、音速、节奏等。进一步地,利用情感分析技术识别转换后的文本内容确定情感强度,例如“非常高兴”或“稍微伤心”等。最后将得到的情感强度和音频特征进行结合,从而得到第一情感特征。通过将语音数据中的情感强度和音频特征进行结合得到情感特征,从而使得得到的情感特征更加全面,进而使得虚拟角色能够体现出更多的情感。
11、在一些技术方案中,可选地,根据文本内容确定情感强度的步骤,包括:获取文本内容中的情感词汇;根据情感词汇在文本内容中的位置和词义确定情感强度。
12、在该技术方案中,根据文本内容确定情感强度的步骤,包括:通过情感分析技术识别转换后的文本内容中用于表征情绪的情感词汇,例如,“开心”、“伤心”等。同时,根据这些情感词汇在文本内容中的位置和词义,进一步确定情绪的强度即情感强度,例如“非常开心”或“稍微伤心”。通过获取情感强度可以使得虚拟角色在同一个类型的情感中表现出不同的面部表情和肢体动作,如果情感强度为“非常开心”和“稍微开心”,那么对于“非常开心”来说,虚拟角色的面部表情可以是笑得很开心,肢体动作也会显得轻快。对于“稍微开心”来说,虚拟角色的面部表情可以是微笑,肢体动作保持不变。由此可见,通过获取情感强度可以使得虚拟角色具有更丰富的情感表达,提高了虚拟角色的真实感。
13、在一些技术方案中,可选地,获取用户的语音数据的步骤之后,包括:对语音数据进行预处理,其中,预处理包括降噪和/或标准化。
14、在该技术方案中,获取用户的语音数据的步骤之后,还需要对语音数据进行预处理,例如对语音数据进行降噪或者是对语音数据进行标准化等操作,从而保证了语音数据的洁净,使得后续得到的情感特征更加准确。
15、根据本专利技术的第二个方面,提出了一种虚拟角色控制装置,包括:第一获取模块,第一获取模块用于获取用户的语音数据;第一确定模块,第一确定模块用于根据语音数据确定与语音数据相对应的第一情感特征;第二获取模块,第二获取模块用于获取虚拟角色的第二情感特征;第二确定模块,第二确定模块用于根据第一情感特征和第二情感特征确定情感类型;调整模块,调整模块用于根据情感类型调整虚拟角色的面部表情和肢体动作。
16、本专利技术提供的虚拟角色控制装置,主要包括:第一获取模块、第一确定模块、第二获取模块、第二确定模块以及调整模块。其中,虚拟角色可以是各种形态的虚拟角色,如电子游戏、动画和vr体验中的人物、四足动物或拟人化角色。在对虚拟角色控制过程中,首先第一获取模块获取用户的语音数据,即获取控制该虚拟角色模型的用户的语音数据,然后第一确定模块对该语音数据进行分析,获取与语音数据相对应的第一情感特征,例如开心、伤心等。进一步地,第二获取模块获取虚拟角色的第二情感特征,第二情感特征指的是虚拟角色本身具有的特定性格情感特征,例如某个虚拟角色天生乐观。然后第二确定模块将得到的第一情感特征和第二情感特征进行融合,并根据融合后的情感特征确定情感类型,情感类型可以为虚拟角色想要表达的情感,例如高兴、沮丧、悲伤等。具体地,确定情感类型的方法可以为:首先建立一个情感类型库,情感类型库中包括:开心、悲伤、愤怒、害怕等情绪,然后对第一情感特征和第二情感特征融合后的情感特征利用训练好的卷积神经网络模型进行分析,从而本文档来自技高网...
【技术保护点】
1.一种虚拟角色控制方法,其特征在于,包括:
2.根据权利要求1所述的虚拟角色控制方法,其特征在于,所述根据所述语音数据确定与所述语音数据相对应的第一情感特征的步骤,包括:
3.根据权利要求2所述的虚拟角色控制方法,其特征在于,所述根据所述文本内容确定所述情感强度的步骤,包括:
4.根据权利要求1至3中任一项所述的虚拟角色控制方法,其特征在于,所述获取用户的语音数据的步骤之后,包括:
5.一种虚拟角色控制装置,其特征在于,包括:
6.根据权利要求5所述的虚拟角色控制装置,其特征在于,所述第一确定模块包括:
7.根据权利要求6所述的虚拟角色控制装置,其特征在于,所述第三确定模块包括:
8.根据权利要求5至7中任一项所述的虚拟角色控制装置,其特征在于,还包括:
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4中任一项所述的虚拟角色控制方法的步骤。
10.一种存储介质,其上存
...【技术特征摘要】
1.一种虚拟角色控制方法,其特征在于,包括:
2.根据权利要求1所述的虚拟角色控制方法,其特征在于,所述根据所述语音数据确定与所述语音数据相对应的第一情感特征的步骤,包括:
3.根据权利要求2所述的虚拟角色控制方法,其特征在于,所述根据所述文本内容确定所述情感强度的步骤,包括:
4.根据权利要求1至3中任一项所述的虚拟角色控制方法,其特征在于,所述获取用户的语音数据的步骤之后,包括:
5.一种虚拟角色控制装置,其特征在于,包括:
6.根据权利要求5所述的虚拟角色控制装置,其特征在于,所述第...
【专利技术属性】
技术研发人员:王智武,任俸仪,胡可庆,
申请(专利权)人:北京元境数字科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。