《Deep Learning Techniques for Music Generation – A Survey》深度学习用于音乐生成——Chapter 3
Chapter 3
首先,(object)目的就是要生成怎样的音乐类型,比如:
- Melody(旋律):单独的乐器或者人声,可以单音(只有一个音)的或者是复音(多个音)的
- polyphony(复调音乐):是两个或以上的独立乐器或人声的旋律构成的,比如chorale(合唱)
- accompaniment to a given melody(既定旋律的伴奏)这可以是: 1.counterpoint(多声部)——由一个或多个旋律(人声)构成
2.sequence of chords(和弦序列)——提供了一些相关的和声 - melody和chords的结合:音乐界把这个叫做lead sheet,一般在Jazz乐里比较普遍,也可能出现在一些诗歌抒情类中
实验开始的目的暗示着将要输出的音乐的类型,例如,旋律。输入和输出的类型可能一致也可能大不相同,输入可能是:一段旋律用来生产伴奏;一个单独的音符用来开始生产一段旋律,或者无输入。
主要问题是,什么代表着生成音乐的结束?可以是电脑最终能以音频或者MIDI(这是电脑可读的文件形式)的方式来读取播放已经生成的音乐。又或者是生成人类可以浏览的方式,例如,乐谱。
这些格式是可以互相转换的,但可能会损失一些信息。
另一个重要的问题是关于音乐内容生成的自主性。它可以完全自主和自动化,而无需任何人工干预。或者它可以与控制界面或多或少地进行交互,供人类用户指导生成的过程。
由于用于音乐生成的深度学习是最近出现的,并且基本的神经网络技术是非交互式的,因此我们分析过的大多数系统和实验不是或者尚未是互动式的。
但是,最有趣的目标似乎是为音乐家提供交互式支持系统(用于作曲,编曲和其他)的设计活动,例如FlowComposer原型所示。
来源:CSDN
作者:Smokefishe
链接:https://blog.csdn.net/Smokefishe/article/details/104721691