
当AI遇上五线谱:计算机作曲的真实体验
去年帮音乐学院的学弟调试他的毕业作品,那首用算法生成的弦乐四重奏把教授都听懵了——主旋律是Python写的,和声进行由TensorFlow预测,最后用Logic Pro微调了人性化细节。现在回头看他那台MacBook上跑的程序,其实核心就三个模块:
这玩意儿生成的demo已经能骗过普通听众的耳朵了,但专业音乐人还是能发现机械感。就像我老师常说的:”计算机作曲最难的从来不是技术,是怎么让01代码长出心跳声。”
传统派VS科技派的创作现场
和声课上的数字原住民
上周去旁听央音的计算机作曲课,发现学生们都在用MaxMSP{rel=”nofollow”}实时调试算法。有个00后妹子让我开眼界——她戴着VR手套在空中”抓取”和弦,系统即时生成对位旋律,手势幅度直接控制声像位移。这种操作方式在传统作曲系简直难以想象:
午夜工作室的碰撞
我认识个给游戏配乐的哥们,他的工作流特别有意思:白天用Overture{rel=”nofollow”}写总谱,晚上用Ableton Live的MIDI效果器做声音设计。有次他给我演示怎么把肖邦夜曲的和声进行喂给Magenta Studio{rel=”nofollow”},AI生成的变奏版本居然带着蒸汽波的味道。
最神奇的是他去年接的国风项目,用StyleGAN2模型训练了300首古琴曲后,AI自动生成的引子段落里出现了《梅花三弄》的泛音技法特征。不过最后客户还是要求他手动重写了发展部——机器暂时还搞不定”欲扬先抑”这种东方美学逻辑。
混音台前的新工种
现在棚里最抢手的是既懂四部和声又熟悉Python的音乐工程师。上次在录音棚见到个神人,他写了个实时分析人声频谱的脚本,能自动匹配最适合的和声排列方式。比传统靠耳朵试错快多了,不过混音师老王偷偷吐槽:”这玩意儿生成的爵士七和弦总像戴着安全套——技术到位但不够骚。”
倒是给短视频做批量配乐的团队爱死这些工具了。听说有工作室用GPT-3配合Soundful,一天能产出200条不同情绪的背景音乐,虽然深度不够,但对15秒的带货视频绰绰有余。
还没有评论呢,快来抢沙发~