9 月 12 日,MiniMax 发布了新一代音乐生成模型 Music1.5,这一模型标志着 AI 音乐创作的新突破,开启了 「一人即乐队」 的新时代。Music1.5 不仅将生成音乐的时长提升至 4 分钟,还具备四大新突破: 强控制力、人声自然饱满、编曲层次丰富以及歌曲结构清晰。
Music1.5 支持长达 4 分钟的音乐创作,出品即成品,不再仅是 demo 小样。它能够对歌曲的风格、情绪和场景进行自定义和强控制。用户只需给出一句简单的自然语言描述,Music1.5 就能交付超高完成度的作品。在
在编曲方面,Music1.5 对乐器进行细粒度建模,使得编曲丰富、乐器层次清晰、演奏技巧富于变化。它还支持中国小众及民族乐器的生成,如 《江南烟雨诗》 中融入了多种中国传统民乐。此外,Music1.5 实现了 Intro/Verse/Chorus 段落间的明显区别,副歌爆点明显,尾奏收束自然,带来真正的 「叙事级」 听觉体验。
这些突破背后,是 MiniMax 在文本、语音、视觉等多模态的自研能力积累。Music1.5 利用文本模型的能力,对文本描述有更强的理解力和控制力,不仅可对歌曲风格、情感色彩和适用场景进行整体控制,也可对人声特征进行细粒度控制,生成不同声线特质的人声音色。
Music1.5 适用于多种场景,包括为专业音乐创作提供 AI 辅助灵感激发、为影视、游戏、短视频快速定制背景音乐、为虚拟偶像量身打造单曲与 MV、为企业品牌生成专属音频内容等。此外,Music1.5 还同步面向全球开发者提供 API,延续全球
Music1.5 的发布,不仅降低了音乐创作的门槛,还回归了听觉本质,让 「好听」 的音乐自然发生。该模型现已全球上线,用户可以登录 minimaxi.com/audio/music 立即体验,打造自己的下一首热门单曲。








