跟其他领域一样,在音乐制作人的圈子里,AI也成了热烈讨论的话题之一。
无数对自动化音乐的警告接踵而至,深度造假和欺诈的作品层出不穷,我们都感受到了那种被机器接管工作、艺术和生活的恐惧。我们肯定会对版权、艺术家的知识产权和道德规范有所担忧,但AI带来的并不只是完全自动化的艺术。相反,AI可以加入你现在的工作流程中,帮助你解决混音问题和创作障碍,引入之前不可能实现的创作方式。
AI究竟在做什么?
在创作过程中应用AI的方式多种多样。有人使用AI来创造声音。这可能是通过输入提示文本的方式来实现的,如Google的MusicLM就是一种生成式的AI。另外,人们会利用AI来帮助自己完成创作、混音、母带处理等繁重的工作,加快处理速度,找到完美声音,或是在创作和制作的过程里与你“协作”。这一类称为辅助AI。

虽然这两者并不是相互排斥的,因为一个工具既可以是辅助性的,也可以是生成性的,但为了符合这篇文章的用意(以及列举案例的方便),将它们分为两个类别考虑还是有帮助的。这些应用虽然看起来很简单,但根据最初训练的不同,它们的复杂程度也会有不同。AI模型是否优秀取决于它的数据库,也就是为了训练模型而输入的数据。重点要记住,一个模型,无论是辅助性还是生成性的,都不是无懈可击的,特别是在音乐创作这种需要复杂技术和主观判断搭配的应用中。
即便有最好的动机和“最干净”的数据,你的新AI助手也会输出一些人工痕迹很重,充满瑕疵或错误的结果。没有完美的AI工具 – 至少目前是的 – 因此,请你带着好奇心和创造力去使用它,而不要期待一定能获得完美的结果。
AI对音乐有好处吗?
因为“AI”一词涉猎的范围实在太广,所以AI对音乐是否有好处是一个非常庞大的议题。但就像任何创造性工具一样,关键在于你要如何使用它。
任何人都可以登录Splice,下载10条循环素材,拖拽到DAW中,点击导出,就说这是音乐了。这有创意吗?这些循环素材的音调相符,时值匹配,听起来当然是音乐了。但如果没有人类的创意,这些就只是一些素材内容而已。
我更相信,我们会使用生成性和辅助性的AI工具去提升创造力,而不是作弊。我感觉,任何能减少创作摩擦的工具都是有积极意义的。总有人想要一键式音乐生成的解决方案,也许对于TikTok视频和播客等内容来说,这些是可以理解的。但说到音乐创作,我更相信,AI的创造潜力会成为一股积极的力量。
我要如何在创作过程中用到AI呢?
在工作室使用AI并没有放之四海皆准的方法,但下面有一些很熟悉的场景可以让AI发挥它的作用。
每个人都知道被卡住的感觉。被困在16小节的循环里,看着空白的DAW发呆,不停地浏览采样和预设,却毫无进展。Splice全新的AI工具就是专为解决创作瓶颈设计的。它来源于CoSo(兼容音色),用户通过使用新的“创造”功能,可以从Splice数以百万计的音色库中快速搭建音轨。
首先,用户要选择一种风格,比如Lo-Fi Wave或Hit Hop,然后,你会获得6个来自Splice音色库的兼容循环素材。每一个都进行了自动音高调整和时值伸缩,你可以通过刷新按钮快速更换创意。当你准备好进行下一步探索时,可以将它们导出到Ableton Live,此时,时间伸缩和音高偏移的处理都会保留下来。如果你想要访问这些构成创意的音频采样,可以导出保留音高和时值信息的Stems或是处于原始状态的音频文件。
音乐制作和混音可以是一个极富创造力的过程,但有时候也需要管理能力。你可以通过均衡技术形成自己的风格,但均衡器也可以只用来避免“声音遮盖” – 比如,当底鼓和贝斯的声音频率发生重叠,造成听感上的浑浊时。iZotope的Neutron插件是设计用来“聆听”你项目中的轨道,在发现频率冲突时,给你提供均衡器设置建议的。它拥有包括激励、压缩、失真和瞬态塑形等在内的七个模块。你可以根据自己的喜好和Neutron的判断来激活各部分的功能。
面对空白的DAW,不知从何下手?或者,你的乐理知识有限,和弦听起来没有新意,该怎么办?有一些工具可以帮到你 – Muse Spark可以根据DAW中的文字提示生成和弦,而Orb Producer Suite中的Orb Composer可以创建复杂且高度可定制的旋律以及和弦结构。Google在2019年首次发布的Magenta Studio也可以从头开始生成MIDI和弦和编曲样式。如果想要了解更多AI音乐生成工具,可以再看看AIVA或Boomy。
音干分离是AI研究中出现的另一个概念,它允许你从母带立体声中分离出人声、乐器或音乐的其他部分。大多数工具都是基于浏览器的,目前还不够完美,会有人工痕迹的残留 – 但就像大部分AI领域的产物一样,我们期待它们能够变得更好。你可以尝试Moises、AudioShake和LALAL.AI,了解实际的使用效果。
最后是声音模型,这是一种捕捉歌手声音精髓,并移植到自己声音中的革命性方法。虽然目前还没有新的插件提供这种技术,但你可以在Kits.ai和Voice-Swap等网站的歌手下拉列表中进行建模,甚至将自己的歌声训练成AI模型。
现在有谁在使用AI?
虽然主流对AI的讨论似乎是最近才出现的现象,但艺术家们对这项技术的尝试已经有一段时间了。在2020年,制作人兼工程师的Shawn Everett在一个名为“Jukebox”的OpenAI工具中输入了The Killers主唱Brandon Flowers弹奏的和弦,并“要求”它以Pink Floyd的风格进行和弦扩展。另外,4AD艺术家Holly Herndon用自己的声音创建了一个AI双胞胎,让歌迷可以用它创建自己的Holly+歌声。后来,Grimes也做了类似的事情,让使用她声音的合作者可以享受对半分成的版税。

我们该何去何从?
与所有新技术一样,重点是我们要如何使用它。Autotune的设计初衷是帮助歌手保持音准,但最终却成为近十年里说唱和Trap音乐中常用的效果。鼓机的设计目的是用来取代传统乐队中的鼓手,但最后却在House音乐的发明中发挥了巨大作用。Roland 303的设计初衷是为风琴演奏者提供低音伴奏,但后来却成了标志性的Acid House音色。人是技术重新定义艺术的原因,AI也不例外。
Splice的“创造”功能就是AI应用的优秀案例 – 它不为你谱写音乐,而是在你把控音乐创作的同时,强化你的创意。今年晚些时候,我们将看到这项技术带来更多令人兴奋的功能,包括将自己的音频加入Stack中,匹配完美声音的能力。如果你刚刚踏上AI的旅程,那么这将是一个不错的开始。
AI在音乐创作中的潜在影响范围非常广泛,从混音问题的解决到母带处理、作曲辅助、声音模型以及更多我们无法想象的东西。替代叙事一直是新技术的一部分,但我相信,AI永远无法替代人类的创意。这些工具掌握在艺术家手中,将会为歌曲创作、声音设计和音乐制作开辟出新的道路。
作者:Declan McGlynn
编译:Logic Loc
来源:Splice Blog
评论 (0)