当前位置: 首页 > 专利查询>清华大学专利>正文

一种基于共同语义空间的个性化音乐生成方法及装置制造方法及图纸

技术编号:15725792 阅读:82 留言:0更新日期:2017-06-29 16:22
本发明专利技术公开了一种基于共同语义空间的个性化音乐生成方法,包括以下步骤:S1、将文字映射到共同语义空间表示;S2、将共同语义空间表示转化为乐曲;S3、将文字蕴含的风格和意境隐含到语义空间表示中,并体现在生成的乐曲中。还公开了实现所述方法的装置。本发明专利技术的有益效果是:本发明专利技术生成乐曲时可以考虑全部的文字描述以及已经生成的音符;生成的乐曲会融入文字描述体现的风格和意境;可以针对某种类型的乐曲进行强化;良好的数据可移植性和可扩展性。

【技术实现步骤摘要】
一种基于共同语义空间的个性化音乐生成方法及装置
本专利技术涉及一种基于共同语义空间的个性化音乐生成方法及装置。
技术介绍
音乐生成是让计算机自动创作音乐的技术。音乐创作一直被认为是一种高难度,依赖人类突发灵感的高级思维活动。另一方面,音乐创作又需要遵循严格的规律,如节拍性、强弱性等。这意味着创造音乐是一项既要循规蹈矩,又要寻求新意的艰苦劳动,仅有对音高、节拍等具有敏锐感觉,且思维活跃度极高的少数人能够胜任。幸运的是,这种在严格框架下进行有限创新的工作,计算机具有天然优势,它可以充分保证生成作品的合规性,同时在合规下探索各种可能的创新。让计算机自动生成音乐,可极大减少人类进行音乐创作的工作量,且有望产生挣脱传统思路束缚新颖音乐。即便用机器生成的音乐还不能与人类的音乐家相比,但机器作品可以为人类提供候选或初级作品,使作曲家创作更加容易;同时,计算机生成的音乐还可以为作曲家提供灵感和刺激,激发他们不断创造新的音乐,防止因长期创作带来的风格惰性和思维困顿,帮助作曲家永褒创作青春。因此,自动音乐生成具有非常广阔的应用前景。音乐生成一般可以有以下两种方式:1、经典的概率模型该方法用语言模型或者HMM模型训练字符化的乐谱,然后生成一段乐谱,能取得比较不错的效果。2、神经网络(NN)模型该方法学习字符化的乐谱利用神经网络,相当于学习一个序列,然后用模型生成一个序列,这种方法一个时刻只能生成一个音符,不过可以获得一些令人满意的音乐片段。目前的音乐生成方法无法细致指定生成音乐的风格。要生成不同风格的音乐,或者人为挑选不同风格的训练数据进行与风格相关(style-dependent)的模型训练,或者引入一个表示风格的指示变量,表示想要生成的风格方式。虽然这些是可行的,但这些方法无法对风格进行细致指定。比如,同样是田园风格,反应农耕生活和反应狩猎生活的音乐可能差距较大。再如,如果我们想反应复杂风格,既有田园风格,也有魔幻风格,则传统的方法无法实现。除了风格,音乐还包括意境、情景、叙事等复杂属性。这些复杂属性到相交叉组合,意味着对音乐的描述极为复杂,更别提依这些描述来生成音乐了。本专利技术关注音乐生成任务,提出一种新的方法,可通过文字描述来指定生成音乐的风格和属性。例如,通过输入“牛和羊在青青的草地上吃草,旁边有小溪流过”来指定生成音乐所表述的内容,音乐生成器即可生成与这一田园风格相适应的音乐。
技术实现思路
本专利技术的目的在于克服现有技术的缺点,提供一种基于共同语义空间的个性化音乐生成方法及装置。该方法首先将已知的文字-乐曲对映射到共同的语义空间中,并同时将文字所表述的风格、意境等也体现在该语义空间表示中,然后学习在这种特定的风格、意境下的语义空间表示到乐曲的转换关系,这样,学习到的映射和转换关系就可以根据新的文字创作能体现出风格和意境的乐曲。对于给定的一段新文字,创作过程为先将其映射到该共同语义空间,然后再用学习到的转换方法来生产贴合该文字内容以及风格的乐曲。本专利技术的目的通过以下技术方案来实现:一种基于共同语义空间的个性化音乐生成方法,包括以下步骤:S1、将文字映射到共同语义空间表示(编码过程);S2、将共同语义空间表示转化为乐曲(解码过程);S3、将文字蕴含的风格和意境隐含到语义空间表示中,并体现在生成的乐曲中。由于在编码过程中,会考虑全部的文字描述,这就使得语义空间表示可以学习文字之间的相互关系以及这些文字共同所体现的风格和意境,而在解码的时候,除了文字描述,还会考虑该乐曲的已生成部分,使得整个乐曲除了能够与文字描述贴合之外,还能保证自身内容的完整性以及风格的整齐划一感。优选的,所述的步骤S1和S2均可通过基于RNN的编码器来实现,但不限于该方法。共同语义空间是指将文字和音乐映射到在同一个语义空间中,使得对于文字和音乐两个不同的体系,该语义空间不仅能够分别勾勒出单个体系内语义级别上纵横交错的隐含关系,还能够体现两个体系在语义级别上的联动性和一致性。对于本专利技术文字到音乐的生成,需要分别文字和音乐和共同语义空间的对应关系,只是操作的方向不同。对于文字,该方法主要通过一个编码器来学习如何将其映射到语义空间中,也就是学习其语义空间表示,而对于音乐,该方法主要学习如何从其文字的语义空间表示来转化成音乐。基于RNN的编码-解码结构本专利技术主要描述了用基于RNN的编码-解码结构来进行文字到音乐的生成,但实际并不仅限于该方法,其他一些序列到序列的模型也适用。编码时,从左到右依次将文字描述中的文字映射到共同语义空间中,在映射每一个文字的时候,不仅考虑之前的文字,还考虑之前文字的语义表示。解码时也是从左到右挨个生成乐符,首先根据文字描述的语义表示以及已生成部分乐曲的乐符序列及其语义表示来得到当前生成乐符的语义表示,再将该语义表示转化成相应的乐符。下面以LSTM机制为例来描述基于RNN模型的编码阶段的文字到语义以及解码阶段的语义到乐符的转换过程。1、输入输出格式如下:文字对应的输入格式:音符对应的输出格式:其中:Kx和Ky分别是文字和音符的字符个数,Tx和Ty分别是一段文字和对应音符的长度。2、对于encoder:首先,该模型在encoder阶段使用bidirectionalrecurrentneuralnetwork(lstm)构建,下面是生成正向隐层的步骤:其中:是文字字符对应的词向量矩阵。和是权重矩阵,是偏置向量,m是词向量的维度,n是隐层数。反向隐层可以通过相似的计算获得。我们可以拼接正向和反向隐层向量获得如下所示:3、对于decoder:在Decoder阶段,生成隐层状态设为st的步骤,如下:其中:是音符字符对应的词向量矩阵。Wo,WC,Wi,Wf∈Rn×m,Uo,UC,Ut,Uf∈Rn×n和Co,CC,Ci,Cf∈Rn×2n是权重矩阵,是偏置向量,m是词向量的维度,n是隐层数。生成下一个音符条件概率的公式如下:yt=argmaxyp(y|st,c,yt-1)(16)4、代价函数:使用交叉熵代价函数:训练与生成训练语料的格式为一首歌的每一个字对对应一个或者多个音符,这样,训练和生成过程就相当于一个翻译过程。在训练过程中,把整首歌作为输入在编码器阶段生成一个表征向量再由表征向量和上一个音符在解码器阶段生成对应的音乐(即一串音符),再根据生成的音符和本来正确的音符,设计一个损失函数,在训练阶段不断更新参数。在生成过程中,我们可以输入若干句话或者关键词,生成一段符合文字风格或者意境的音乐。实现所述的一种基于共同语义空间的个性化音乐生成方法的装置,包括将文字映射到共同语义空间表示的影射模块和用于将共同语义空间表示转化为乐曲的转化模块。本专利技术具有以下优点:本专利技术生成乐曲时可以考虑全部的文字描述以及已经生成的音符;生成的乐曲会融入文字描述体现的风格和意境;可以针对某种类型的乐曲进行强化;良好的数据可移植性和可扩展性。附图说明图1为本专利技术的文字和音乐在共同语义空间的转换过程示意图。图2为本专利技术的基于RNN的编码-解码模型示意图。图3为本专利技术的训练示意图。图4为本专利技术的生成示意图。具体实施方式下面结合附图对本专利技术做进一步的描述:一种基于共同语义空间的个性化音乐生成方法,包括以下步骤:S1、将文字映射到共同语义空间表示(编码过程);S2、将共同语义空本文档来自技高网
...
一种基于共同语义空间的个性化音乐生成方法及装置

【技术保护点】
一种基于共同语义空间的个性化音乐生成方法,其特征在于:包括以下步骤:S1、将文字映射到共同语义空间表示;S2、将共同语义空间表示转化为乐曲;S3、将文字蕴含的风格和意境隐含到语义空间表示中,并体现在生成的乐曲中。

【技术特征摘要】
1.一种基于共同语义空间的个性化音乐生成方法,其特征在于:包括以下步骤:S1、将文字映射到共同语义空间表示;S2、将共同语义空间表示转化为乐曲;S3、将文字蕴含的风格和意境隐含到语义空间表示中,并体现在生成的乐曲中。2.根据权利要求1所述的一种基于共同语义空间的个性化音乐生成方法,其特征在于:所述的步骤S1和S2均通过基于RNN的编码器来实现。3.根据权利要求1所述的一种基于共同语义空间的个性化音乐生成方法,其特征在于:所述的共同语义空间是指将文字和音乐映射到在同一个语义空间中。4.根据权利要求2所述的一种基于共同语义空间的个性化音乐生成方法,其特征在于:包括以下步骤;A、输入输出格式如下:文字对应的输入格式:音符对应的输出格式:其中:Kx和Ky分别是文字和音符的字符个数,Tx和Ty分别是一段文字和对应音符的长度;B、对于encoder;在encoder阶段使用bidirectionalrec...

【专利技术属性】
技术研发人员:王东张记袁冯洋杜新凯游世学
申请(专利权)人:清华大学北京中科汇联科技股份有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1