和弦识别模型的训练方法及装置、和弦识别方法及装置制造方法及图纸

技术编号:33289961 阅读:16 留言:0更新日期:2022-05-01 00:06
本公开关于一种和弦识别模型的训练方法及装置、和弦识别方法及装置。所述和弦识别方法包括:获取与音频对应的无人声音频和无鼓声音频;分别对所述音频、所述无人声音频、所述无鼓声音频进行特征提取,得到音频特征、无人声音频特征、无鼓声音频特征;通过将所述音频特征输入到和弦识别模型中的第一子模型,将所述无人声音频特征输入到和弦识别模型中的第二子模型,将所述无鼓声音频特征输入到和弦识别模型中的第三子模型,分别得到所述音频的第一和弦类型、第二和弦类型、第三和弦类型;基于所述音频的第一和弦类型、第二和弦类型、第三和弦类型,确定所述音频的和弦类型。根据本公开的和弦识别方法及装置,可提高和弦识别的准确度。度。度。

【技术实现步骤摘要】
和弦识别模型的训练方法及装置、和弦识别方法及装置


[0001]本公开涉及音视频
更具体地,本公开涉及一种和弦识别模型的训练方法及装置、以及一种和弦识别方法及装置。

技术介绍

[0002]自动和弦识别(ACR)是音乐信息检索领域的重要研究话题。和弦是音乐形成的基础,它可以直接影响一首音乐的审美,决定音乐的情感和色彩,丰富音乐的内容。常见的和弦类型包括三和弦:大三和弦(maj)、小三和弦(min)、减三和弦(dim)、增三和弦(aug),七和弦:大七和弦(maj7)、属七和弦(7)、小七和弦(m7)、小大七和弦(mM7)、减七和弦(dim7)、增七和弦(aug7)、半减七和弦(half

dim7),以及附加和弦(add)、扩展和弦(extend)、挂留和弦(suspend)。
[0003]和弦进行是流行音乐、古典乐、摇滚音乐和布鲁斯、爵士等音乐的基础,在这些音乐体裁中,旋律和节奏是建立在和弦进行上的。在歌曲创作过程中,歌曲通常由和弦进行,然后再考虑旋律、bass、配器等其他元素。因此,和弦识别对于音乐学习和作曲无疑是非常重要的。例如,在爵士乐即兴演奏中,爵士贝斯手可以根据和弦谱即兴演奏低音,其他独奏乐器演奏者也根据和弦谱即兴创作自己的独奏部分。在相关技术中,一些网站提供了一些手动注释的乐谱供下载,然而,这些乐谱中的和弦需要依靠人工识别并注释,和弦识别的准确度较低。

技术实现思路

[0004]本公开的示例性实施例在于提供一种和弦识别模型的训练方法及装置、一种和弦识别方法及装置,以至少解决相关技术中的和弦识别的准确率不高的问题,也可不解决任何上述问题。
[0005]根据本公开的示例性实施例,提供一种和弦识别模型的训练方法,包括:获取与音频对应的无人声音频和无鼓声音频;基于原始音频训练集,获取与所述原始音频训练集对应的无人声音频训练集和无鼓声音频训练集;分别对所述原始音频训练集、所述无人声音频训练集、所述无鼓声音频训练集中的音频进行特征提取,得到原始音频特征集、无人声音频特征集、无鼓声音频特征集;通过将所述原始音频特征集输入到和弦识别模型中的第一子模型,将所述无人声音频特征集输入到所述和弦识别模型中的第二子模型,将所述无鼓声音频特征集输入到所述和弦识别模型中的第三子模型,,分别得到原始音频的预测和弦类型、无人声音频的预测和弦类型、无鼓声音频的预测和弦类型;基于原始音频的真实和弦类型、所述原始音频的预测和弦类型、所述无人声音频的预测和弦类型、所述无鼓声音频的预测和弦类型,计算所述第一子模型的预测损失、所述第二子模型的预测损失和所述第三子模型的预测损失;分别基于所述第一子模型的预测损失、所述第二子模型的预测损失和所述第三子模型的预测损失对所述第一子模型的参数、所述第二子模型的参数和所述第三子模型的参数进行调整。
[0006]可选地,通过将所述原始音频特征集输入到所述和弦识别模型中的所述第一子模型来得到所述原始音频的预测和弦类型的步骤可包括:将所述原始音频特征集输入到所述和弦识别模型中的所述第一子模型中,预测所述原始音频的预测音级、预测根音和预测低音;基于所述原始音频的预测音级、预测根音和预测低音确定所述原始音频的预测和弦类型。
[0007]可选地,通过将所述无人声音频特征集输入到所述和弦识别模型中的所述第二子模型来得到所述无人声音频的预测和弦类型的步骤可包括:将所述无人声音频特征集输入到所述和弦识别模型中的所述第二子模型中,预测所述无人声音频的预测音级、预测根音和预测低音;基于所述无人声音频的预测音级、预测根音和预测低音确定所述无人声音频的预测和弦类型。
[0008]可选地,通过将所述无鼓声音频特征集输入到所述和弦识别模型中的所述第三子模型来得到所述无鼓声音频的预测和弦类型的步骤可包括:将所述无鼓声音频特征集输入到所述和弦识别模型中的所述第三子模型中,预测所述无鼓声音频的预测音级、预测根音和预测低音;基于所述无鼓声音频的预测音级、预测根音和预测低音确定所述无鼓声音频的预测和弦类型。
[0009]可选地,基于所述原始音频的真实和弦类型、所述原始音频的预测和弦类型、所述无人声音频的预测和弦类型、所述无鼓声音频的预测和弦类型,计算所述第一子模型的预测损失、所述第二子模型的预测损失和所述第三子模型的预测损失的步骤可包括:基于所述原始音频的真实和弦类型和所述原始音频的预测和弦类型计算所述第一子模型的预测损失;基于所述原始音频的真实和弦类型和所述无人声音频的预测和弦类型计算所述第二子模型的预测损失;基于所述原始音频的真实和弦类型和所述无鼓声音频的预测和弦类型计算所述第三子模型的预测损失。
[0010]可选地,基于所述原始音频的真实和弦类型和所述原始音频的预测和弦类型计算所述第一子模型的预测损失的步骤可包括:计算所述原始音频的真实和弦类型和所述原始音频的预测和弦类型之间的第一和弦类型差异;计算所述原始音频的真实音级和所述原始音频的预测音级之间的第一音级差异;计算所述原始音频的真实根音和所述原始音频的预测根音之间的第一根音差异;计算所述原始音频的真实低音和所述原始音频的预测低音之间的第一低音差异;基于所述第一和弦类型差异、所述第一音级差异、所述第一根音差异和所述第一低音差异确定所述第一子模型的预测损失。
[0011]可选地,基于所述原始音频的真实和弦类型和所述无人声音频的预测和弦类型计算所述第二子模型的预测损失的步骤可包括:计算所述原始音频的真实和弦类型和所述无人声音频的预测和弦类型之间的第二和弦类型差异;计算所述原始音频的真实音级和所述无人声音频的预测音级之间的第二音级差异;计算所述原始音频的真实根音和所述无人声音频的预测根音之间的第二根音差异;计算所述原始音频的真实低音和所述无人声音频的预测低音之间的第二低音差异;基于所述第二和弦类型差异、所述第二音级差异、所述第二根音差异和所述第二低音差异确定所述第二子模型的预测损失。
[0012]可选地,基于所述原始音频的真实和弦类型和所述无鼓声音频的预测和弦类型计算所述第三子模型的预测损失的步骤可包括:计算所述原始音频的真实和弦类型和所述无鼓声音频的预测和弦类型之间的第三和弦类型差异;计算所述原始音频的真实音级和所述
无鼓声音频的预测音级之间的第三音级差异;计算所述原始音频的真实根音和所述无鼓声音频的预测根音之间的第三根音差异;计算所述原始音频的真实低音和所述无鼓声音频的预测低音之间的第三低音差异;基于所述第三和弦类型差异、所述第三音级差异、所述第三根音差异和所述第三低音差异确定所述第三子模型的预测损失。
[0013]可选地,基于所述原始音频训练集,获取与所述原始音频训练集对应的无人声音频训练集和无鼓声音频训练集的步骤可包括:通过对所述原始音频训练集中的各原始音频进行人声分离处理,得到与所述原始音频训练集对应的无人声音频训练集;通过对所述原始音频训练集中的各原始音频进行鼓声分离处理,得到与所述原始音频训练集对应的无鼓声音频训练集。
[0014]根据本公开的示例性实施例,提供一种和弦识别方法,包括:本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种和弦识别模型的训练方法,其特征在于,包括:基于原始音频训练集,获取与所述原始音频训练集对应的无人声音频训练集和无鼓声音频训练集;分别对所述原始音频训练集、所述无人声音频训练集、所述无鼓声音频训练集中的音频进行特征提取,得到原始音频特征集、无人声音频特征集、无鼓声音频特征集;通过将所述原始音频特征集输入到和弦识别模型中的第一子模型,将所述无人声音频特征集输入到所述和弦识别模型中的第二子模型,将所述无鼓声音频特征集输入到所述和弦识别模型中的第三子模型,分别得到原始音频的预测和弦类型、无人声音频的预测和弦类型、无鼓声音频的预测和弦类型;基于原始音频的真实和弦类型、所述原始音频的预测和弦类型、所述无人声音频的预测和弦类型、所述无鼓声音频的预测和弦类型,计算所述第一子模型的预测损失、所述第二子模型的预测损失和所述第三子模型的预测损失;分别基于所述第一子模型的预测损失、所述第二子模型的预测损失和所述第三子模型的预测损失对所述第一子模型的参数、所述第二子模型的参数和所述第三子模型的参数进行调整。2.根据权利要求1所述的和弦识别模型的训练方法,其特征在于,通过将所述原始音频特征集输入到所述和弦识别模型中的所述第一子模型来得到所述原始音频的预测和弦类型的步骤包括:将所述原始音频特征集输入到所述和弦识别模型中的所述第一子模型中,预测所述原始音频的预测音级、预测根音和预测低音;基于所述原始音频的预测音级、预测根音和预测低音确定所述原始音频的预测和弦类型。3.根据权利要求1所述的和弦识别模型的训练方法,其特征在于,通过将所述无人声音频特征集输入到所述和弦识别模型中的所述第二子模型来得到所述无人声音频的预测和弦类型的步骤包括:将所述无人声音频特征集输入到所述和弦识别模型中的所述第二子模型中,预测所述无人声音频的预测音级、预测根音和预测低音;基于所述无人声音频的预测音级、预测根音和预测低音确定所述无人声音频的预测和弦类型。4.根据权利要求1所述的和弦识别模型的训练方法,其特征在于,通过将所述无鼓声音频特征集输入到所述和弦识别模型中的所述第三子模型来得到所述无鼓声音频的预测和弦类型的步骤包括:将所述无鼓声音频特征集输入到所述和弦识别模型中的所述第三子模型中,预测所述无鼓声音频的预测音级、预测根音和预测低音;基于所述无鼓声音频的预测音级、预测根音和预测低音确定所述无鼓声音频的预测和弦类型。5.根据权利要求1所述的和弦识别模型的训练方法,其特征在于,基于所述原始音频的真实和弦类型、所述原始音频的预测和弦类型、所述无人声音频的预测和弦类型、所述无鼓声音频的预测和弦类型,计算所述第一子模型的预测损失、所述第二子模型的预测损失和
所述第三子模型的预测损失的步骤包括:基于所述原始音频的真实和弦类型和所述原始音频的预测和弦类型计算所述第一子模型的预测损失;基于所述原始音频的真实和弦类型和所述无人声音频的预测和弦类型计算所述第二子模型的预测损失;基于所述原始音频的真实和...

【专利技术属性】
技术研发人员:范欣悦郑羲光张晨
申请(专利权)人:北京达佳互联信息技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1