当前位置: 首页 > 专利查询>之江实验室专利>正文

一种歌声合成模型的训练方法、装置、介质及电子设备制造方法及图纸

技术编号:38276072 阅读:11 留言:0更新日期:2023-07-27 10:27
本说明书公开了一种歌声合成模型的训练方法、装置、介质及电子设备,包括:通过预先收集的歌曲的歌曲数据,训练待训练的歌声合成模型。在训练时,先根据歌曲的歌词数据,确定歌曲的音素,再将音素与歌谱数据进行拼接,并将拼接结果输入待训练的歌声合成模型的旋律预测层,得到歌曲的第一旋律分布。之后,将确定歌曲出的第一梅尔谱输入歌声预测层,得到预测音频以及第二旋律分布。然后,根据第一旋律分布与第二旋律分布的差异,音频数据与预测音频的差异,确定目标损失,并以目标损失最小为优化目标,对待训练的歌声合成模型进行训练。提高训练完成的歌声合成模型的采样率,使得根据歌声合成模型生成的歌声中的颤音减少。合成模型生成的歌声中的颤音减少。合成模型生成的歌声中的颤音减少。

【技术实现步骤摘要】
一种歌声合成模型的训练方法、装置、介质及电子设备


[0001]本说明书涉及计算机
,尤其涉及一种歌声合成模型的训练方法、装置、介质及电子设备。

技术介绍

[0002]随着科技的不断发展,人机交互过程变得越来越频繁以及越来越智能,其中,通过人机交互合成歌声得到广泛的关注。
[0003]通常,歌声合成是指根据歌词信息和歌谱信息合成歌声的过程。因此,如何合成歌声是一个非常重要的问题。
[0004]基于此,本说明书提供一种歌声合成模型的训练方法。

技术实现思路

[0005]本说明书提供一种歌声合成模型的训练方法、装置、介质及电子设备,以部分的解决现有技术存在的上述问题。
[0006]本说明书采用下述技术方案:
[0007]本说明书提供了一种歌声合成模型的训练方法,待训练的歌声合成模型包括旋律预测层和歌声预测层;所述方法包括:
[0008]获取预先收集的歌曲的歌曲数据,其中,所述歌曲数据至少包括歌词数据、歌谱数据和音频数据;
[0009]根据所述歌曲数据中包含的歌词数据,确定所述歌词数据对应的音素;
[0010]将所述歌谱数据和所述音素进行拼接,得到第一结果;
[0011]将所述第一结果输入所述待训练的歌声合成模型的旋律预测层,预测所述歌曲的第一旋律分布,其中,所述第一旋律分布包含所述歌词数据对应的音素的信息;
[0012]根据所述音频数据,确定所述歌曲的第一梅尔谱,并将所述第一梅尔谱输入所述待训练的歌声合成模型的歌声预测层,得到预测音频以及第二旋律分布;
[0013]根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,并以所述目标损失最小为优化目标,对所述待训练的歌声合成模型进行训练。
[0014]可选地,所述旋律预测层包括特征提取层、时长预测层、基频预测层、梅尔谱预测层和分布预测层;
[0015]将所述第一结果输入所述待训练的歌声合成模型的旋律预测层,得到所述歌曲的第一旋律分布,具体包括:
[0016]将所述第一结果输入所述旋律预测层的特征提取层,得到所述音素的隐含特征;
[0017]将所述隐含特征输入所述旋律预测层的时长预测层,得到所述音素的第一发音时长;
[0018]根据所述音素的第一发音时长,对所述音素的隐含特征进行扩充处理,得到第二
结果;
[0019]将所述第二结果输入所述旋律预测层的基频预测层,得到所述歌曲的音频帧的第一基频;
[0020]将所述第二结果和所述歌曲的音频帧的第一基频进行拼接,得到第三结果;
[0021]将所述第三结果输入所述旋律预测层的梅尔谱预测层,得到所述歌曲的第二梅尔谱;
[0022]将所述第二梅尔谱和所述第二结果进行拼接,得到第四结果;
[0023]将所述第四结果输入所述旋律预测层的分布预测层,得到所述歌曲的第一旋律分布。
[0024]可选地,所述歌声预测层包括声谱分布预测层、转化层和可微数字信号处理层;
[0025]根据所述音频数据,确定所述歌曲的第一梅尔谱,并将所述第一梅尔谱输入所述待训练的歌声合成模型的歌声预测层,得到预测音频以及第二旋律分布,具体包括:
[0026]根据所述音频数据,采用预设的第一算法,确定所述歌曲的第一梅尔谱;
[0027]将所述第一梅尔谱输入所述歌声预测层的声谱分布预测层,得到所述歌曲的预测声谱分布;
[0028]将所述歌曲的预测声谱分布输入所述歌声预测层的可微数字信号处理层,得到所述歌曲的预测音频,以及将所述预测声谱分布输入所述歌声预测层的转化层,得到第二旋律分布。
[0029]可选地,根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,具体包括:
[0030]根据所述音频数据和所述预测音频之间的差异,确定第一损失,以及根据所述第一旋律分布和所述第二旋律分布之间的差异,确定第二损失;
[0031]将所述第一损失与所述第二损失的和作为目标损失。
[0032]可选地,根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,具体包括:
[0033]根据所述音频数据,采用预设的第二算法,确定所述音素的第二发音时长;
[0034]根据所述第一发音时长和所述第二发音时长之间的差异,确定第三损失;
[0035]根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,以及所述第三损失,确定所述目标损失。
[0036]可选地,根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,具体包括:
[0037]根据所述音频数据,采用预设的第三算法,确定所述歌曲的音频帧的第二基频;
[0038]根据所述第一基频和所述第二基频之间的差异,确定第四损失;
[0039]根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,以及所述第四损失,确定所述目标损失。
[0040]可选地,根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,具体包括:
[0041]根据所述第二梅尔谱和所述第一梅尔谱之间的差异,确定第五损失;
[0042]根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音
频的差异,以及所述第五损失,确定所述目标损失。
[0043]可选地,根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,具体包括:
[0044]根据所述音频数据,采用预设的算法,确定所述音素的第二发音时长、所述歌曲的音频帧的第二基频;
[0045]根据所述第一发音时长和所述第二发音时长之间的差异,确定第三损失;根据所述第一基频和所述第二基频之间的差异,确定第四损失;根据所述第二梅尔谱和所述第一梅尔谱之间的差异,确定第五损失;
[0046]根据所述第一旋律分布与所述第二旋律分布的差异、所述音频数据与所述预测音频的差异、所述第三损失、所述第四损失和所述第五损失,确定目标损失。
[0047]可选地,将所述歌曲的预测声谱分布输入所述歌声预测层的可微数字信号处理层,得到所述歌曲的预测音频,具体包括:
[0048]将所述歌曲的预测声谱分布输入所述歌声预测层的可微数字信号处理层,确定所述歌曲的音频帧的谐波参数和噪声参数;
[0049]针对所述歌曲的每一个音频帧,确定该音频帧对应的预测基频;
[0050]根据该音频帧对应的预测基频和该音频帧的谐波参数,确定该音频帧的谐波信号,以及根据该音频帧对应的预测基频和该音频帧的噪声参数,确定该音频帧的噪声信号;
[0051]确定该音频帧的谐波信号和该音频帧的噪声信号的和,作为该音频帧的音频信号;
本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种歌声合成模型的训练方法,其特征在于,待训练的歌声合成模型包括旋律预测层和歌声预测层;所述方法包括:获取预先收集的歌曲的歌曲数据,其中,所述歌曲数据至少包括歌词数据、歌谱数据和音频数据;根据所述歌曲数据中包含的歌词数据,确定所述歌词数据对应的音素;将所述歌谱数据和所述音素进行拼接,得到第一结果;将所述第一结果输入所述待训练的歌声合成模型的旋律预测层,预测所述歌曲的第一旋律分布,其中,所述第一旋律分布包含所述歌词数据对应的音素的信息;根据所述音频数据,确定所述歌曲的第一梅尔谱,并将所述第一梅尔谱输入所述待训练的歌声合成模型的歌声预测层,得到预测音频以及第二旋律分布;根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,并以所述目标损失最小为优化目标,对所述待训练的歌声合成模型进行训练。2.如权利要求1所述的方法,其特征在于,所述旋律预测层包括特征提取层、时长预测层、基频预测层、梅尔谱预测层和分布预测层;将所述第一结果输入所述待训练的歌声合成模型的旋律预测层,得到所述歌曲的第一旋律分布,具体包括:将所述第一结果输入所述旋律预测层的特征提取层,得到所述音素的隐含特征;将所述隐含特征输入所述旋律预测层的时长预测层,得到所述音素的第一发音时长;根据所述音素的第一发音时长,对所述音素的隐含特征进行扩充处理,得到第二结果;将所述第二结果输入所述旋律预测层的基频预测层,得到所述歌曲的音频帧的第一基频;将所述第二结果和所述歌曲的音频帧的第一基频进行拼接,得到第三结果;将所述第三结果输入所述旋律预测层的梅尔谱预测层,得到所述歌曲的第二梅尔谱;将所述第二梅尔谱和所述第二结果进行拼接,得到第四结果;将所述第四结果输入所述旋律预测层的分布预测层,得到所述歌曲的第一旋律分布。3.如权利要求1或2所述的方法,其特征在于,所述歌声预测层包括声谱分布预测层、转化层和可微数字信号处理层;根据所述音频数据,确定所述歌曲的第一梅尔谱,并将所述第一梅尔谱输入所述待训练的歌声合成模型的歌声预测层,得到预测音频以及第二旋律分布,具体包括:根据所述音频数据,采用预设的第一算法,确定所述歌曲的第一梅尔谱;将所述第一梅尔谱输入所述歌声预测层的声谱分布预测层,得到所述歌曲的预测声谱分布;将所述歌曲的预测声谱分布输入所述歌声预测层的可微数字信号处理层,得到所述歌曲的预测音频,以及将所述预测声谱分布输入所述歌声预测层的转化层,得到第二旋律分布。4.如权利要求3所述的方法,其特征在于,根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,具体包括:根据所述音频数据和所述预测音频之间的差异,确定第一损失,以及根据所述第一旋
律分布和所述第二旋律分布之间的差异,确定第二损失;将所述第一损失与所述第二损失的和作为目标损失。5.如权利要求2所述的方法,其特征在于,根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,具体包括:根据所述音频数据,采用预设的第二算法,确定所述音素的第二发音时长;根据所述第一发音时长和所述第二发音时长之间的差异,确定第三损失;根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,以及所述第三损失,确定所述目标损失。6.如权利要求2所述的方法,其特征在于,根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,具体包括:根据所述音频数据,采用预设的第三算法,确定所述歌曲的音频帧的第二基频;根据所述第一基频和所述第二基频之间的差异,确定第四损失;根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,以及所述第四损失,确定所述目标损失。7.如权利要求2所述的方法,其特征在于,根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,具体包括:根据所述第二梅尔谱和所述第一梅尔谱之间的差异,确定第五损失;根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,以及所述第五损失,确定所述目标损失。8.如权利要求2所述的方法,其特征在于,根据所述第一旋律分布与所述第二旋律分布的差异,所述音频数据与所述预测音频的差异,确定目标损失,具体包括:根据所述音频数据,采用预设的算法,确定所述音素的第二发音时长、所述歌曲的音频帧的第二基频;根据所述第一发音时长和所述第二发音时长之间的差异,确定第三损失;根据所述第一基频和所述第二基频之间的差异,确定第四损失;根据所述第二梅尔谱和所述第一梅尔谱之间的差异,确定第五损失;根据所述第一旋律分布与所述第二旋律分布的差异、所述音频数据与所述预测音频的差异、所述第三损失、所述第四损失和所述第五损失,确定目标损失。9.如权利要求4所述的方法,其特征在于,将所述歌曲的预测声谱分布输入所述歌声预测层的可微数字信号处理层,得到所述歌曲的预测音频,具体包括:将所述歌曲的预测声谱分布输入所述歌声预测层的可微数字信号处理层,确定所述歌曲的音频帧的谐波参数和噪声参数;针对所述歌曲的每一个音频帧,确定该音频帧对应的预测基频;根据该音频帧对应的预测基频和该音频帧的谐波参数,确定该音频帧的谐波信号,以及根据该音频帧对应的预测基频和该音频帧的噪声参数,确定该音频帧的噪声信号;确定该音频帧的谐波信号和该音频帧的噪声信号的和,作为该音频帧的音频信号;根据各音频帧的音频信号,确定所述歌曲的预测音频。10.如权利要求3所述的方法,其特征在于,所述方法还包括:响应于用户的输入操作,确定所述用户输入的待合成歌曲的歌词数据和歌谱数据;
确定所述用户输入的歌词数据对应的音素,作为待合成音素;将所述待合成音素与所述用户输入的歌谱数据进行拼接,得到第一结果;将所述第一结果输入训练完成的歌声合成模型的旋律预测层,预测所述待合成歌曲的旋律分布;将所述待合成歌曲的旋律分布输入所述训练完成的歌声合成模型的歌声预测层中的转化层,得到所述待合成歌曲的声谱分布;将所述待合成歌曲的声谱分布输入所述训练完成的歌声合成模型的歌声预测层中的可微数字信号处理层,得到所述待合成歌曲的音频。11.如权利要求3所述的方法,其特征在于,所述旋律预测层包括特征提取层、时长预测层、基频预测层、梅尔谱预测层和分布预测层;所述方法还包括:响应于用户的输入操作,确定所述用户输入的待合成歌曲的歌词数据和歌谱数据;确定所述用户输入的歌词数据对应的音素,作为待合成音素;将所述待合成音素与所述用户输入的歌谱数据进行拼接;将拼接后的结果输入训练完成的歌声合成模型的旋律预测层的特征提取层,得到所述待合成音素的隐含特征;将所述待合成音素的隐含特征输入所述时长预测层,得到所述待合成音素的发音时长;根据所述待合成音素的发音时长,对所述待合成音素的隐含特征进行扩充处理,得到扩充结果;将所述扩充结果输入所述基频预测层,得到所述待合成歌曲的音频帧的基频;将所述扩充结果和所述基频进行拼接,得到第一拼接结果;将所述第一拼接结果输入所述梅尔谱预测层,得到所述待合成歌曲的梅尔谱;将所述梅尔谱和所述扩充结果进行拼接,得到第二拼接结果;将所述第二拼接结果输入所述分布预测层,得到所述待合成歌曲的旋律分布;将所述旋律分布输入训练完成的歌声合成模型的歌声预测层的转...

【专利技术属性】
技术研发人员:李太豪郑书凯汪芬
申请(专利权)人:之江实验室
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1