让我们看看演示视频吧!
Pusa,基于Mochi1-Preview的Thousand Timesteps Video扩散模型,只需0.1美元的训练成本。
单个模型可解锁支持文本到视频,图像到视频,开始/结束帧到视频,视频过渡,视频扩展,下一帧预测,新颖的采样算法(与帧无关的噪声)。
Github地址:https://github.com/Yaofang-Liu/Pusa-VidGen
模型下载地址:https://huggingface.co/RaphaelLiu/Pusa-V0.5
微信扫描下方的二维码阅读本文
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
评论(0)