一种数据处理方法、装置和电子设备制造方法及图纸

技术编号:33091787 阅读:19 留言:0更新日期:2022-04-16 23:21
本发明专利技术实施例提供了一种数据处理方法、装置和电子设备,其中,所述方法包括:在播放目标音频数据时,获取所述目标音频数据中讲话人的关联信息;依据所述关联信息,构造虚拟录音场景,其中,所述虚拟录音场景与所述目标音频数据的真实录音场景对应;进而在播放音频数据的同时,对录制该音频数据时的真实录音场景进行还原,增强录音播放效果,提高用户体验。提高用户体验。提高用户体验。

【技术实现步骤摘要】
一种数据处理方法、装置和电子设备


[0001]本专利技术涉及数据处理
,特别是涉及一种数据处理方法、装置和电子设备。

技术介绍

[0002]近年来,录音设备作为专业领域的产品,发展迅速并进入大众领域。记者、学生、教师等各种群体,通常都需要录音设备进行录音。此外各种电视节目、电影、音乐等录制也需要使用到录音设备。
[0003]目前,在播放录音设备中的音频时,通常仅展示音波动画;无法很好的还原出录制该音频数据时的场景,录音播放效果差。

技术实现思路

[0004]本专利技术实施例提供一种数据处理方法,以提高录音播放效果。
[0005]相应的,本专利技术实施例还提供了一种数据处理装置和一种电子设备,用以保证上述方法的实现及应用。
[0006]为了解决上述问题,本专利技术实施例公开了一种数据处理方法,具体包括:在播放目标音频数据时,获取所述目标音频数据中讲话人的关联信息;依据所述关联信息,构造虚拟录音场景,其中,所述虚拟录音场景与所述目标音频数据的真实录音场景对应。
[0007]可选地,所述关联信息包括用户信息和位置信息,所述依据所述关联信息,构造虚拟录音场景,包括:依据所述讲话人的用户信息,确定所述讲话人对应的虚拟人物;依据所述讲话人的位置信息和对应的虚拟人物,构造虚拟录音场景。
[0008]可选地,所述讲话人包括多个,所述依据所述讲话人的位置信息和对应的虚拟人物,构造虚拟录音场景,包括:确定所述目标音频数据录制时的录音模式;从预设的虚拟场景中,选取所述录音模式匹配的目标虚拟场景;在所述目标虚拟场景中,依据所述讲话人的位置信息将各虚拟人物放置在对应讲话人的位置,得到的虚拟录音场景。
[0009]可选地,所述用户信息包括以下至少一种:用户性别、用户年龄和用户性格类型;所述依据讲话人的用户信息,确定讲话人对应的虚拟人物,包括:
[0010]获取预设的虚拟人物的描述信息,所述描述信息包括以下至少一种:人物性别、人物年龄和人物性格类型;针对每一个虚拟人物,将所述讲话人的用户性别与所述虚拟人物的人物年龄进行比对,和/或将所述讲话人的用户年龄与所述虚拟人物的人物年龄进行比对,和/或将所述讲话人的用户性格类型与所述虚拟人物的人物性别进行比对;将人物性别与所述讲话人的用户性别匹配,和/或人物年龄与所述讲话人的用户年龄匹配,和/或人物性格类型与所述讲话人的用户性格类型匹配的虚拟人物,确定为讲话人对应的虚拟人物。
[0011]可选地,所述虚拟录音场景中包括所述讲话人对应的虚拟人物,所述的方法还包括:依据所述关联信息,控制所述虚拟录音场景中的虚拟人物的动作。
[0012]可选地,所述关联信息包括声音信息,所述依据所述关联信息,控制所述虚拟录音场景中的虚拟人物的动作,包括:依据所述讲话人的声音信息,控制所述虚拟录音场景中虚
拟人物的动作。
[0013]可选地,所述声音信息包括以下至少一种:语速、语调、语气;所述依据所述讲话人的声音信息,控制所述虚拟录音场景中虚拟人物的动作,包括以下至少一个步骤:依据所述讲话人的语速,控制所述虚拟录音场景中虚拟人物的嘴部动作;依据所述讲话人的语速和/或语调和/或语气,控制所述虚拟录音场景中虚拟人物的面部表情;依据所述讲话人的语速和/或语调和/或语气,控制所述虚拟录音场景中虚拟人物的肢体动作。
[0014]可选地,所述的方法还包括:在录制所述目标音频数据的过程中,基于所述目标音频数据进行性别识别,确定所述讲话人的用户性别;和/或,基于所述目标音频数据进行性格类型识别,确定所述讲话人的用户性格类型;和/或,基于所述目标音频数据进行年龄识别,确定所述讲话人的用户年龄;和/或,基于所述目标音频数据进行语速识别,确定所述讲话人的语速;和/或,基于所述目标音频数据进行语气识别,确定所述讲话人的语气;和/或,基于所述目标音频数据进行语调识别,确定所述讲话人的语调。
[0015]本专利技术实施例还公开了一种数据处理装置,具体包括:获取模块,用于在播放目标音频数据时,获取所述目标音频数据中讲话人的关联信息;构建模块,用于依据所述关联信息,构造虚拟录音场景,其中,所述虚拟录音场景与所述目标音频数据的真实录音场景对应。
[0016]可选地,所述关联信息包括用户信息和位置信息,所述构建模块,包括:虚拟人物确定子模块,用于依据所述讲话人的用户信息,确定所述讲话人对应的虚拟人物;场景构建子模块,用于依据所述讲话人的位置信息和对应的虚拟人物,构造虚拟录音场景。
[0017]可选地,所述讲话人包括多个,所述场景构建子模块,用于确定所述目标音频数据录制时的录音模式;从预设的虚拟场景中,选取所述录音模式匹配的目标虚拟场景;在所述目标虚拟场景中,依据所述讲话人的位置信息将各虚拟人物放置在对应讲话人的位置,得到的虚拟录音场景。
[0018]可选地,所述用户信息包括以下至少一种:用户性别、用户年龄和用户性格类型;所述虚拟人物确定子模块,用于获取预设的虚拟人物的描述信息,所述描述信息包括以下至少一种:人物性别、人物年龄和人物性格类型;针对每一个虚拟人物,将所述讲话人的用户性别与所述虚拟人物的人物年龄进行比对,和/或将所述讲话人的用户年龄与所述虚拟人物的人物年龄进行比对,和/或将所述讲话人的用户性格类型与所述虚拟人物的人物性别进行比对;将人物性别与所述讲话人的用户性别匹配,和/或人物年龄与所述讲话人的用户年龄匹配,和/或人物性格类型与所述讲话人的用户性格类型匹配的虚拟人物,确定为讲话人对应的虚拟人物。
[0019]可选地,所述虚拟录音场景中包括所述讲话人对应的虚拟人物,所述的装置还包括:控制模块,用于依据所述关联信息,控制所述虚拟录音场景中的虚拟人物的动作。
[0020]可选地,所述关联信息包括声音信息,所述控制模块,用于依据所述讲话人的声音信息,控制所述虚拟录音场景中虚拟人物的动作。
[0021]可选地,所述声音信息包括以下至少一种:语速、语调、语气;所述控制模块,包括:嘴部动作控制子模块,用于依据所述讲话人的语速,控制所述虚拟录音场景中虚拟人物的嘴部动作;面部表情控制子模块,用于依据所述讲话人的语速和/或语调和/或语气,控制所述虚拟录音场景中虚拟人物的面部表情;肢体动作控制子模块,用于依据所述讲话人的语
速和/或语调和/或语气,控制所述虚拟录音场景中虚拟人物的肢体动作。
[0022]可选地,所述的装置还包括:识别模块,用于在录制所述目标音频数据的过程中,基于所述目标音频数据进行性别识别,确定所述讲话人的用户性别;和/或,基于所述目标音频数据进行性格类型识别,确定所述讲话人的用户性格类型;和/或,基于所述目标音频数据进行年龄识别,确定所述讲话人的用户年龄;和/或,基于所述目标音频数据进行语速识别,确定所述讲话人的语速;和/或,基于所述目标音频数据进行语气识别,确定所述讲话人的语气;和/或,基于所述目标音频数据进行语调识别,确定所述讲话人的语调。
[0023]本专利技术实施例还公开了一种可读存储介质,当所述存储介质中的指令本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种数据处理方法,其特征在于,包括:在播放目标音频数据时,获取所述目标音频数据中讲话人的关联信息;依据所述关联信息,构造虚拟录音场景,其中,所述虚拟录音场景与所述目标音频数据的真实录音场景对应。2.根据权利要求1所述的方法,其特征在于,所述关联信息包括用户信息和位置信息,所述依据所述关联信息,构造虚拟录音场景,包括:依据所述讲话人的用户信息,确定所述讲话人对应的虚拟人物;依据所述讲话人的位置信息和对应的虚拟人物,构造虚拟录音场景。3.根据权利要求2所述的方法,其特征在于,所述讲话人包括多个,所述依据所述讲话人的位置信息和对应的虚拟人物,构造虚拟录音场景,包括:确定所述目标音频数据录制时的录音模式;从预设的虚拟场景中,选取所述录音模式匹配的目标虚拟场景;在所述目标虚拟场景中,依据所述讲话人的位置信息将各虚拟人物放置在对应讲话人的位置,得到的虚拟录音场景。4.根权利要求2所述的方法,其特征在于,所述用户信息包括以下至少一种:用户性别、用户年龄和用户性格类型;所述依据讲话人的用户信息,确定讲话人对应的虚拟人物,包括:获取预设的虚拟人物的描述信息,所述描述信息包括以下至少一种:人物性别、人物年龄和人物性格类型;针对每一个虚拟人物,将所述讲话人的用户性别与所述虚拟人物的人物年龄进行比对,和/或将所述讲话人的用户年龄与所述虚拟人物的人物年龄进行比对,和/或将所述讲话人的用户性格类型与所述虚拟人物的人物性别进行比对;将人物性别与所述讲话人的用户性别匹配,和/或人物年龄与所述讲话人的用户年龄匹配,和/或人物性格类型与所述讲话人的用户性格类型匹配的虚拟人物,确定为讲话人对应的虚拟人物。5.根据权利要求1所述的方法,其特征在于,所述虚拟录音场景中包括所述讲话...

【专利技术属性】
技术研发人员:王合心
申请(专利权)人:北京搜狗智能科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1