DiffRhythm,基于扩散模型的端到端音乐模型,可以在 10 秒内生成一首完整包含人声和伴奏的歌曲。

DiffRhythm,基于扩散模型的端到端音乐模型,可以在 10 秒内生成一首完整包含人声和伴奏的歌曲插图

项目地址:https://aslp-lab.github.io/DiffRhythm.github.io/

Github地址:https://github.com/ASLP-lab/DiffRhythm

论文地址:https://arxiv.org/abs/2503.01183

在线体验:https://huggingface.co/spaces/ASLP-lab/DiffRhythm



微信扫描下方的二维码阅读本文

DiffRhythm,基于扩散模型的端到端音乐模型,可以在 10 秒内生成一首完整包含人声和伴奏的歌曲插图1

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。