音乐生成方法、装置及存储介质制造方法及图纸

技术编号:37099477 阅读:14 留言:0更新日期:2023-04-01 05:00
本公开涉及一种音乐生成方法、装置及存储介质。所述方法包括:根据用户输入的音乐偏好信息,确定与所述音乐偏好信息对应的和弦信息和节奏型信息;根据所述和弦信息和所述节奏型信息,生成目标MIDI数据;确定目标渲染规则,所述目标渲染规则包括对MIDI数据进行音色渲染的音色组合和渲染顺序;根据所述目标渲染规则,对所述目标MIDI数据进行音色渲染,得到目标音乐。这样,基于用户的音乐偏好所对应的和弦信息和节奏型信息,能够生成更加符合用户音乐偏好的MIDI数据,再按照音色组合和顺序进行渲染,使最终获得的目标音乐具有更加丰富的音乐信息和更加完整的音乐结构,进一步地,还能够满足打碟场景对于音乐的需求。够满足打碟场景对于音乐的需求。够满足打碟场景对于音乐的需求。

【技术实现步骤摘要】
音乐生成方法、装置及存储介质


[0001]本公开涉及音乐合成领域,尤其涉及一种音乐生成方法、装置及存储介质。

技术介绍

[0002]目前,在音乐生成领域,主要基于规则、概率模型、深度学习等技术实现合成音乐的目标,其中,由于规则和概率模型这两种技术本身的局限性较大,因此近年来更倾向于基于深度学习的音乐生成。目前,在基于深度学习的音乐生成中,主要实现的是针对钢琴曲、乐器单旋律、流行编曲等的音乐生成,生成的音乐比较单一,无法生成构成比较复杂的音乐,例如打碟所使用的电子音乐。

技术实现思路

[0003]为克服相关技术中存在的问题,本公开提供一种音乐生成方法、装置及存储介质。
[0004]根据本公开实施例的第一方面,提供一种音乐生成方法,所述方法包括:
[0005]根据用户输入的音乐偏好信息,确定与所述音乐偏好信息对应的和弦信息和节奏型信息;
[0006]根据所述和弦信息和所述节奏型信息,生成目标MIDI数据;
[0007]确定目标渲染规则,所述目标渲染规则包括对MIDI数据进行音色渲染的音色组合和渲染顺序;
[0008]根据所述目标渲染规则,对所述目标MIDI数据进行音色渲染,得到目标音乐。
[0009]可选地,所述根据所述和弦信息和所述节奏型信息,生成目标MIDI数据,包括:
[0010]将所述和弦信息和所述节奏型信息输入至生成模型,得到所述生成模型输出的预设音轨的音符分布信息,其中,所述生成模型通过对生成式对抗网络进行训练而得到;
[0011]根据所述音符分布信息,确定所述目标MIDI数据。
[0012]可选地,所述生成模型包括至少一个生成子模型,所述生成子模型与所述预设音轨一一对应;
[0013]所述将所述和弦信息和所述节奏型信息输入至生成模型,得到所述生成模型输出的预设音轨的音符分布信息,包括:
[0014]获取噪声信息;
[0015]将所述和弦信息、所述节奏型信息和所述噪声信息分别输入至每一生成子模型,得到所述生成子模型各自输出的音符分布信息,以获得各个所述预设音轨的音符分布信息。
[0016]可选地,所述生成模型通过以下方式得到:
[0017]获取第一训练数据,所述第一训练数据包括和弦样本和节奏型样本;
[0018]确定训练模型,所述训练模型包括分别对应于各个所述预设音轨的生成网络和判别器;
[0019]将目标和弦样本、目标节奏型样本和获取到的目标噪声分别输入至本次训练所使
用的每一生成网络,得到各个所述生成网络输出的第一输出结果,其中,所述目标和弦样本和所述目标节奏型样本取自所述第一训练数据中的和弦样本和节奏型样本;
[0020]针对每一所述预设音轨,将该预设音轨对应的第一输出结果、所述目标和弦样本和所述目标节奏型样本,输入至与该预设音轨对应的判别器,得到该判别器输出的第二输出结果;
[0021]在不满足停止训练条件的情况下,根据所述第二输出结果,更新本次训练所使用的各个生成网络,以得到更新后的训练模型,并且,将更新后的训练模型用于下一次训练;
[0022]在满足所述停止训练条件的情况下,将本次训练所使用的生成网络分别作为生成子模型,以得到由所述生成子模型构成的生成模型。
[0023]可选地,所述训练模型还包括全局判别网络;
[0024]所述根据所述第二输出结果,更新本次训练所使用的各个生成网络,包括:
[0025]根据每一所述预设音轨对应的第二输出结果,确定各个所述预设音轨对应的生成网络的第一损失值;
[0026]根据每一所述预设音轨对应的第一输出结果、所述目标和弦样本和所述目标节奏型样本,生成输入张量;
[0027]将所述输入张量输入至所述全局判别网络,得到所述全局判别网络输出的第三输出结果;
[0028]根据所述第三输出结果,确定第二损失值;
[0029]根据所述第一损失值和所述第二损失值,对本次训练所使用的各个生成网络的网络参数进行更新。
[0030]可选地,每一所述生成子模型包括用于生成音符起始点分布信息的第一生成器和用于生成音符持续信息的第二生成器。
[0031]可选地,所述音符分布信息包括音符起始点分布信息和持续音符位置信息;
[0032]所述根据所述音符分布信息,确定所述目标MIDI数据,包括:
[0033]合并所述音符起始位置信息和所述持续音符位置信息,得到合并结果;
[0034]对所述合并结果进行去噪处理,以得到所述目标MIDI数据。
[0035]可选地,所述确定目标渲染规则,包括:
[0036]根据预设的音乐偏好信息与渲染规则之间的对应关系,确定与用户输入的所述音乐偏好信息对应的渲染规则,作为所述目标渲染规则。
[0037]可选地,所述确定目标渲染规则,包括:
[0038]将所述音乐偏好信息输入至预训练的规则生成模型中,得到所述规则生成模型的输出结果,作为所述目标渲染规则,其中,所述规则生成模型是利用第二训练数据对神经网络模型进行训练而得到的,所述第二训练数据包括多组音乐偏好信息样本和渲染规则样本。
[0039]根据本公开实施例的第二方面,提供一种音乐生成装置,所述装置包括:
[0040]第一确定模块,被配置为根据用户输入的音乐偏好信息,确定与所述音乐偏好信息对应的和弦信息和节奏型信息;
[0041]生成模块,被配置为根据所述和弦信息和所述节奏型信息,生成目标MIDI数据;
[0042]第二确定模块,被配置为确定目标渲染规则,所述目标渲染规则包括对MIDI数据
进行音色渲染的音色组合和渲染顺序;
[0043]渲染模块,被配置为根据所述目标渲染规则,对所述目标MIDI数据进行音色渲染,得到目标音乐。
[0044]根据本公开实施例的第三方面,提供一种音乐生成装置,包括:
[0045]处理器;
[0046]用于存储处理器可执行指令的存储器;
[0047]其中,所述处理器被配置为:
[0048]根据用户输入的音乐偏好信息,确定与所述音乐偏好信息对应的和弦信息和节奏型信息;
[0049]根据所述和弦信息和所述节奏型信息,生成目标MIDI数据;
[0050]确定目标渲染规则,所述目标渲染规则包括对MIDI数据进行音色渲染的音色组合和渲染顺序;
[0051]根据所述目标渲染规则,对所述目标MIDI数据进行音色渲染,得到目标音乐。
[0052]根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的音乐生成方法的步骤。
[0053]本公开的实施例提供的技术方案可以包括以下有益效果:
[0054]通过上述技术方案,根据用户输入的音乐偏好信息,确定与音乐偏好信息对应的和弦信息和节奏型信息,之后,根据和弦信息和节奏型信息,生成目标MID本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种音乐生成方法,其特征在于,所述方法包括:根据用户输入的音乐偏好信息,确定与所述音乐偏好信息对应的和弦信息和节奏型信息;根据所述和弦信息和所述节奏型信息,生成目标MIDI数据;确定目标渲染规则,所述目标渲染规则包括对MIDI数据进行音色渲染的音色组合和渲染顺序;根据所述目标渲染规则,对所述目标MIDI数据进行音色渲染,得到目标音乐。2.根据权利要求1所述的方法,其特征在于,所述根据所述和弦信息和所述节奏型信息,生成目标MIDI数据,包括:将所述和弦信息和所述节奏型信息输入至生成模型,得到所述生成模型输出的预设音轨的音符分布信息,其中,所述生成模型通过对生成式对抗网络进行训练而得到;根据所述音符分布信息,确定所述目标MIDI数据。3.根据权利要求2所述的方法,其特征在于,所述生成模型包括至少一个生成子模型,所述生成子模型与所述预设音轨一一对应;所述将所述和弦信息和所述节奏型信息输入至生成模型,得到所述生成模型输出的预设音轨的音符分布信息,包括:获取噪声信息;将所述和弦信息、所述节奏型信息和所述噪声信息分别输入至每一生成子模型,得到所述生成子模型各自输出的音符分布信息,以获得各个所述预设音轨的音符分布信息。4.根据权利要求3所述的方法,其特征在于,所述生成模型通过以下方式得到:获取第一训练数据,所述第一训练数据包括和弦样本和节奏型样本;确定训练模型,所述训练模型包括分别对应于各个所述预设音轨的生成网络和判别器;将目标和弦样本、目标节奏型样本和获取到的目标噪声分别输入至本次训练所使用的每一生成网络,得到各个所述生成网络输出的第一输出结果,其中,所述目标和弦样本和所述目标节奏型样本取自所述第一训练数据中的和弦样本和节奏型样本;针对每一所述预设音轨,将该预设音轨对应的第一输出结果、所述目标和弦样本和所述目标节奏型样本,输入至与该预设音轨对应的判别器,得到该判别器输出的第二输出结果,所述第二输出结果为该判别器对第一输出结果的评分,所述评分用于反映判别器是否判定第一输出结果为真实数据;在不满足停止训练条件的情况下,根据所述第二输出结果,更新本次训练所使用的各个生成网络,以得到更新后的训练模型,并且,将更新后的训练模型用于下一次训练;在满足所述停止训练条件的情况下,将本次训练所使用的生成网络分别作为生成子模型,以得到由所述生成子模型构成的生成模型。5.根据权利要求4所述的方法,其特征在于,所述训练模型还包括全局判别网络;所述根据所述第二输出结果,更新本次训练所使用的各个生成网络,包括:根据每一所述预设音轨对应的第二输出结果,确定各个所述预设音轨对应的生成网络的第一损失值...

【专利技术属性】
技术研发人员:汪蕴哲
申请(专利权)人:北京小米松果电子有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1