随着通义万相Wan2.1 在社区的热度持续上涨,魔搭创空间的体验Demo(https://modelscope.cn/studios/Wan-AI/Wan-2.1)已经排起长队。为了提供更好的体验,本文向大家介绍如何使用魔搭社区的免费GPU给自己部署一个独占算力通道的WebUI界面玩转Wan2.1文生视频模型,包会!

Wan2.1文生视频WebUI界面部署

1. 以下链接直达脚本教程:

https://modelscope.cn/notebook/share/ipynb/f548cee3/wan_gradio.ipynb

2. 在Notebook中打开,选择使用GPU打开

 

3.进入到notebook页面,按顺序执行提供的脚本教程

4. 点击链接进入网站(建议使用谷歌浏览器,兼容性较好)

5. 这就完成了在魔搭免费GPU算力中部署一个WebUI,独享算力通道玩转Wan2.1 文生视频模型啦!

LoRA应用

1. 如果已有LoRA文件,将其放在DiffSynth-Studio/models/lora/文件夹里。

2. 再次点击运行。

3. 重复文生视频的操作。

脚本中各项参数的作用

1. 下载并安装DiffSynth-Studio,这是魔搭社区的开源Diffusion模型引擎,项目链接:https://github.com/modelscope/DiffSynth-Studio

 

2. wan2.1-t2v-1.3b文生视频模型包含3个组件:文本编码器、扩散模型和视频解码器。需要从魔搭模型库中下载3个组件对应的模型文件,并将这些模型文件放置到对应文件夹:

  • 文本编码器:models/Wan-AI/Wan2.1-T2V-1.3B/diffusion_pytorch_model.safetensors

  • 扩散模型:models/Wan-AI/Wan2.1-T2V-1.3B/models_t5_umt5-xxl-enc-bf16.pth

  • 视频解码器:models/Wan-AI/Wan2.1-T2V-1.3B/Wan2.1_VAE.pth

如果需要更换14b的模型,在截图下更改模型即可

下面就是一些gradio界面代码了,大家可以对照界面参考一下

 

Logo

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

更多推荐