DiffRhythm,基于扩散模型的端到端音乐模型,可以在 10 秒内生成一首完整包含人声和伴奏的歌曲。
Github地址:https://github.com/ASLP-lab/DiffRhythm
详细与演示:https://www.52wts.cn/6218.html
InspireMusic,阿里开源的音乐生成模型,可控制文本提示,音乐流派,音乐结构等。
Github地址:https://github.com/FunAudioLLM/InspireMusic
详细与演示:https://www.52wts.cn/5852.html
YuE,香港大学开源的音乐基础模型,基于LLaMA架构,可以生成5分钟长度的歌曲。
Github地址:https://github.com/multimodal-art-projection/YuE
详细与演示:https://www.52wts.cn/5693.html
MelodyFlow,Meta发布的AI音乐生成模型,可以根据提示词生成音乐,也可以在线编辑音乐。
模型下载地址:https://huggingface.co/collections/facebook/melodyflow-67067d5d5178a313ef80ba3b
详细与演示:https://www.52wts.cn/4098.html
QA-MDT,开源文本音乐生成,基于扩散模型的文字生成音乐模型。
Github地址:https://github.com/ivcylc/OpenMusic
详细与演示:https://www.52wts.cn/3483.html
Seed-Music,豆包的统一AI音乐生成框架,比Suno更全面更高级。
详细与演示:https://www.52wts.cn/3332.html
FluxMusic,基于Transformer的文字生成音乐。
Github地址:https://github.com/feizc/FluxMusic
详细与演示:https://www.52wts.cn/3139.html
MusiConGen,基于Transformer的文本生成音乐模型,通过文字控制和弦和节奏(BPM)。
详细与演示:https://www.52wts.cn/2442.html
EzAudio,开源的AI音频生成模型,基于Diffusion Transformer 增强文本到音频的生成。
Github地址:https://github.com/haidog-yaqub/EzAudio
详细与演示:https://www.52wts.cn/3398.html
微信扫描下方的二维码阅读本文
评论(0)