Meta 开源 AI 语言模型 MusicGen,可将文本【běn】和【hé】旋律转【zhuǎn】化为完【wán】整【zhěng】乐曲

2024-9-21 14:12:13来源:品玩


【资料图】

品玩 6 月 12 日【rì】讯,Meta 近【jìn】日在 Github 上开源【yuán】了【le】其 AI 语言模型 MusicGen,该模型【xíng】基于谷歌 2017 年推出的 Transformer 模型。如同模型名【míng】称所示【shì】,MusicGen 主要用于音乐生成,它可以将文本和已有【yǒu】的旋律转【zhuǎn】化为完整乐曲。

研发【fā】团队表示:" 我们使用了【le】 20000 小时的授权音【yīn】乐来对训练该【gāi】模型【xíng】,并【bìng】采用 Meta 的 EnCodec 编码【mǎ】器将音频数据分解为更小【xiǎo】的单元进行并行【háng】处理,进而让 MusicGen 的运算效【xiào】率【lǜ】和生【shēng】成速【sù】度都【dōu】比同【tóng】类型 AI 模型【xíng】更为出色。"

除此之外,MusicGen 还支持文本与旋律的组合输入,例如你可以提【tí】出生成 " 一首轻快【kuài】的曲【qǔ】目 " 并同【tóng】时【shí】要求 " 将它与贝【bèi】多芬的《欢乐颂》结【jié】合起来 "。

研发【fā】团队还对 MusicGen 的实际【jì】表现【xiàn】进行了测试。结果显示,与谷歌的 MusicLM 以及 Riffusion、Mousai、Noise2Music 等其他【tā】音乐模型相【xiàng】比,MusicGen 在【zài】测试音【yīn】乐与文本提示的【de】匹配度以【yǐ】及作曲的可信度等指标【biāo】上【shàng】表现更好,总体而言【yán】略高于谷【gǔ】歌 MusicLM 的水【shuǐ】平。

最新资讯

股票软件