当前位置: 首页 > 专利查询>浙江大学专利>正文

一种基于深度神经网络的旋律MIDI伴奏生成方法技术

技术编号:27532523 阅读:45 留言:0更新日期:2021-03-03 11:12
本发明专利技术公开了一种基于深度神经网络的旋律MIDI伴奏生成方法,属于人工智能、音乐科技技术领域。该旋律MIDI伴奏生成方法包括收集有体裁标签的MIDI数据集,将MIDI数据集处理后获得数据集,通过MuMIDI进行编码,获得词条,将词条输入GC

【技术实现步骤摘要】
一种基于深度神经网络的旋律MIDI伴奏生成方法


[0001]本专利技术涉及人工智能、音乐科技
,特别涉及一种基于深度神经网络的旋律MIDI伴奏生成方法。

技术介绍

[0002]艺术创作一直以来被认为是艺术家的专属领域,然而在近几年来,随着深度学习的发展,艺术创作取得了重大进展,达到了前所未有的高度,比如可以生成指定风格的绘画作品,或是生成可以通过图灵测试的音乐作品。音乐生成是一个巨大的领域,它面临着诸多挑战,尤其是当用户希望控制音乐生成的诸多属性时(比如生成的乐器种类数量,音乐体裁等),所得到的音乐有很大的提升空间,将这一类任务统称条件可控的音乐生成。
[0003]目前主流的条件可控的音乐生成有以下几种工作:第一种是体裁可控的单一体裁的音乐生成,如Hadjeres的DeepBach,Ji-Sung Kim的DeepJazz。两种工作均实现了指定体裁的音乐生成,但缺陷也很明显,它们均无法生成其他体裁的音乐。第二种是乐器种类数量可控,且可以将其中一个乐器作为条件的音乐生成,典型的工作如Hao-Wen Dong的MuseGAN。这个工作本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于深度神经网络的旋律MIDI伴奏生成方法,其特征在于,具体包括如下步骤:(1)使用爬虫的方法在互联网上收集有体裁标签的MIDI数据集,并按照体裁标签进行分类;所述体裁包括:流行,乡村,爵士;(2)将步骤(1)收集的MIDI数据经旋律抽取、轨道压缩、数据过滤、整曲分割、和弦识别后,获得MIDI片段,并将所述MIDI片段打乱,获得数据集;(3)将所述数据集通过MuMIDI进行编码,获得词条,根据不同的任务将所述词条分成目标词条和条件词条;所述编码的维度包括:小节序数、音符位置、轨道序数、音符属性、和弦以及元属性;所述元属性中加入“体裁”符号,编码数据集的体裁信息;(4)将目标词条和条件词条输入至GC-Transformer模型中进行训练,输出带有伴奏的MIDI片段,当总损失函数收敛时,完成对GC-Transformer模型的训练;保存训练后得到的GC-Transformer模型的参数和超参数;所述总损失函数为全局语义损失函数、体裁损失函数与语言模型损失函数之和;(5)用户将仅含有旋律的MIDI片段进行编码,并输入至步骤...

【专利技术属性】
技术研发人员:计紫豪汪凯巍
申请(专利权)人:浙江大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1