System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 基于AIGC的虚拟人物动态解说生成方法、系统及介质技术方案_技高网

基于AIGC的虚拟人物动态解说生成方法、系统及介质技术方案

技术编号:39981753 阅读:5 留言:0更新日期:2024-01-09 01:35
本发明专利技术涉及一种基于AIGC的虚拟人物动态解说生成方法、系统及介质,该方法包括以下步骤:获取待解说的相关数据并进行预处理;将预处理后的相关数据输入预先构建好的虚拟人物中,提取关键信息和情感倾向以生成相应的解说文本,其中,采用虚拟人物技术构建具有外貌和动作表现能力的虚拟人物雏形,并采用深度学习技术训练虚拟人物雏形的语音合成和自然语言理解模型形成最终的虚拟人物;基于虚拟人物的外貌和动作表现能力,采用所述解说文本驱动虚拟人物的动作和表情,并将解说文本转化为语音或字幕,实现文本解说和虚拟人物的动作和表情同步动态展示。与现有技术相比,本发明专利技术具有满足个性化需求、提供更好的辅助功能和用户体验等优点。

【技术实现步骤摘要】

本专利技术涉及人工智能,尤其是涉及一种基于aigc的虚拟人物动态解说生成方法、系统及介质。


技术介绍

1、在传统的解说方式中,通常需要依赖真实的人物进行现场解说或事先录制解说。然而,这种方式存在一些限制和挑战。首先,依赖真实人物的解说受限于人力、时间和空间等因素,无法实现大规模和实时的解说需求。其次,解说的质量和个性化程度有限,无法满足用户对不同风格和表达方式的需求。随着人工智能技术的快速发展,虚拟人物技术逐渐成为一种新的解说方式,能够提供更加个性化、自定义的解说体验。

2、在过去几年中,人工智能领域取得了巨大的进展,特别是在自然语言处理、计算机视觉和生成模型等方面。这些技术的发展使得虚拟人物的创建和表现能力得到了极大的提升。虚拟人物能够模拟真实人物的外貌、声音和动作,甚至能够实现情感表达和个性化交互。因此,利用虚拟人物进行解说成为一种具有潜力的解决方案。

3、然而,传统的虚拟人物解说往往缺乏个性化和动态性,无法满足用户对多样化、实时化解说内容的需求。


技术实现思路

1、本专利技术的目的就是为了提供一种满足个性化需求的基于aigc的虚拟人物动态解说生成方法、系统及介质。

2、本专利技术的目的可以通过以下技术方案来实现:

3、一种基于aigc的虚拟人物动态解说生成方法,包括以下步骤:

4、获取待解说的相关数据并进行预处理;

5、将预处理后的相关数据输入预先构建好的虚拟人物中,提取关键信息和情感倾向以生成相应的解说文本,其中,采用虚拟人物技术构建具有外貌和动作表现能力的虚拟人物雏形,并采用深度学习技术训练虚拟人物雏形的语音合成和自然语言理解模型形成最终的虚拟人物;

6、基于虚拟人物的外貌和动作表现能力,采用所述解说文本驱动虚拟人物的动作和表情,并将解说文本转化为语音或字幕,实现文本解说和虚拟人物的动作和表情同步动态展示。

7、进一步地,所述相关数据包括文字、图像、音频和视频,所述文字包括用户自定义的解说内容和场景文字数据。

8、进一步地,所述预处理包括文本分词、图像识别和音频转文本。

9、进一步地,所述虚拟人物雏形参照采集的真实人物数据集进行构建。

10、进一步地,所述外貌和动作表现能力包括面部肌肉的形变、眼睛的运动和嘴唇的变化。

11、进一步地,所述生成相应的解说文本的具体步骤包括:

12、基于提取的关键信息和情感倾向,采用自然语言处理技术,生成符合语义和语法规则的解说文本。

13、进一步地,采用三阶贝塞尔曲线公式控制虚拟人物在动态解说过程中的动作和表情的变化速度和形状,所述三阶贝塞尔曲线公式的表达式为:

14、p(t)=(1-t)3pa+3t(1-t)2pc+3t2(1-t)pd+t3pb,t∈[0,1]

15、式中,p(t)表示插值后的位置或旋转角度,pa和pb分别表示关键帧a和关键帧b的位置或旋转角度,pc和pd则是用于控制曲线形状的控制点。

16、进一步地,还包括虚拟人物在动态解说过程中采用姿态转换、关键帧插值和运动轨迹优方法以实现情感匹配、解说流畅和人物动态优化。

17、本专利技术还提供一种基于上述所述的基于aigc的虚拟人物动态解说生成方法的生成系统,包括:

18、数据获取模块:用于获取待解说的相关数据并进行预处理;

19、解说文本生成模块:用于将预处理后的相关数据输入预先构建好的虚拟人物中,提取关键信息和情感倾向以生成相应的解说文本,其中,采用虚拟人物技术构建具有外貌和动作表现能力的虚拟人物雏形,并采用深度学习技术训练虚拟人物雏形的语音合成和自然语言理解模型;

20、动态解说模块:用于所述解说文本结合虚拟人物的外貌和动作表现能力,驱动虚拟人物的动作和表情,进行同步动态解说。

21、本专利技术还提供一种计算机可读存储介质,包括供电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行如上所述基于aigc的虚拟人物动态解说生成方法的指令。

22、与现有技术相比,本专利技术具有以下有益效果:

23、(1)本专利技术通过真实人物构建具有逼真外貌和行为动作能力的虚拟人物,根据生成的解说文本驱动虚拟人物在解说的同时进行肢体动作和表情的同步展示,为用户提供个性化、交互性强的解说体验,使得用户更加投入和参与其中。

24、(2)本专利技术的虚拟人物根据采集的真实人物数据集进行制作,学习到更多真实人物的外貌特点和行为动作,生成的虚拟人物更加逼真且多样化,满足对不同虚拟人物形象和风格的需求,适用用户偏好。

25、(3)本专利技术虚拟人物的解说可根据用户自定义的解说内容,也可根据其他需要解说的内容进行动态解说,提供更吸引人的呈现方式,满足用户的个性化需求,并提供更好的辅助功能和用户体验。这种创新方式将带来更高效的学习和传播效果,拓展用户的知识和娱乐体验,为现实内容的解说带来全新的可能性。

26、(4)本专利技术还引入了姿态转换、关键帧插值和运动轨迹优化方法,姿态转换将生成的解说文本与相应的场景和情感相匹配,从而转化为相应的姿态动作;关键帧插值能够保证解说的流畅度和连贯性;运动轨迹优化对虚拟人物运动轨迹进行优化和调整,以确保动作自然、精准和符合实际,更加真实地模拟出实际场景中的动作和动态效果。

本文档来自技高网...

【技术保护点】

1.一种基于AIGC的虚拟人物动态解说生成方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种基于AIGC的虚拟人物动态解说生成方法,其特征在于,所述相关数据包括文字、图像、音频和视频,所述文字包括用户自定义的解说内容和场景文字数据。

3.根据权利要求1所述的一种基于AIGC的虚拟人物动态解说生成方法,其特征在于,所述预处理包括文本分词、图像识别和音频转文本。

4.根据权利要求1所述的一种基于AIGC的虚拟人物动态解说生成方法,其特征在于,所述虚拟人物雏形参照采集的真实人物数据集进行构建。

5.根据权利要求1所述的一种基于AIGC的虚拟人物动态解说生成方法,其特征在于,所述外貌和动作表现能力包括面部肌肉的形变、眼睛的运动和嘴唇的变化。

6.根据权利要求1所述的一种基于AIGC的虚拟人物动态解说生成方法,其特征在于,所述生成相应的解说文本的具体步骤包括:

7.根据权利要求1所述的一种基于AIGC的虚拟人物动态解说生成方法,其特征在于,采用三阶贝塞尔曲线公式控制虚拟人物在动态解说过程中的动作和表情的变化速度和形状,所述三阶贝塞尔曲线公式的表达式为:

8.根据权利要求1所述的一种基于AIGC的虚拟人物动态解说生成方法,其特征在于,还包括虚拟人物在动态解说过程中采用姿态转换、关键帧插值和运动轨迹优方法以实现情感匹配、解说流畅和人物动态优化。

9.一种基于权利要求1-8任一所述的基于AIGC的虚拟人物动态解说生成方法的生成系统,其特征在于,包括:

10.一种计算机可读存储介质,其特征在于,包括供电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行如权利要求1-8任一所述基于AIGC的虚拟人物动态解说生成方法的指令。

...

【技术特征摘要】

1.一种基于aigc的虚拟人物动态解说生成方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种基于aigc的虚拟人物动态解说生成方法,其特征在于,所述相关数据包括文字、图像、音频和视频,所述文字包括用户自定义的解说内容和场景文字数据。

3.根据权利要求1所述的一种基于aigc的虚拟人物动态解说生成方法,其特征在于,所述预处理包括文本分词、图像识别和音频转文本。

4.根据权利要求1所述的一种基于aigc的虚拟人物动态解说生成方法,其特征在于,所述虚拟人物雏形参照采集的真实人物数据集进行构建。

5.根据权利要求1所述的一种基于aigc的虚拟人物动态解说生成方法,其特征在于,所述外貌和动作表现能力包括面部肌肉的形变、眼睛的运动和嘴唇的变化。

6.根据权利要求1所述的一种基于aigc的虚拟人物动态解说生成方法,其特...

【专利技术属性】
技术研发人员:苏磊田昊洋焦婷徐晴川李红雷柳天月
申请(专利权)人:国网上海市电力公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1