高效部署通义万相Wan2.1:使用Gradio搭建WebUI体验实战
随着通义万相Wan2.1 在社区的热度持续上涨,魔搭创空间的体验Demo(https://modelscope.cn/studios/Wan-AI/Wan-2.1)已经排起长队。
随着通义万相Wan2.1 在社区的热度持续上涨,魔搭创空间的体验Demo(https://modelscope.cn/studios/Wan-AI/Wan-2.1)已经排起长队。为了提供更好的体验,本文向大家介绍如何使用魔搭社区的免费GPU给自己部署一个独占算力通道的WebUI界面玩转Wan2.1文生视频模型,包会!
Wan2.1文生视频WebUI界面部署
1. 以下链接直达脚本教程:
https://modelscope.cn/notebook/share/ipynb/f548cee3/wan_gradio.ipynb
2. 在Notebook中打开,选择使用GPU打开
3.进入到notebook页面,按顺序执行提供的脚本教程
4. 点击链接进入网站(建议使用谷歌浏览器,兼容性较好)
5. 这就完成了在魔搭免费GPU算力中部署一个WebUI,独享算力通道玩转Wan2.1 文生视频模型啦!
LoRA应用
1. 如果已有LoRA文件,将其放在DiffSynth-Studio/models/lora/
文件夹里。
2. 再次点击运行。
3. 重复文生视频的操作。
脚本中各项参数的作用
1. 下载并安装DiffSynth-Studio
,这是魔搭社区的开源Diffusion模型引擎,项目链接:https://github.com/modelscope/DiffSynth-Studio
2. wan2.1-t2v-1.3b
文生视频模型包含3个组件:文本编码器、扩散模型和视频解码器。需要从魔搭模型库中下载3个组件对应的模型文件,并将这些模型文件放置到对应文件夹:
-
文本编码器:
models/Wan-AI/Wan2.1-T2V-1.3B/diffusion_pytorch_model.safetensors
-
扩散模型:
models/Wan-AI/Wan2.1-T2V-1.3B/models_t5_umt5-xxl-enc-bf16.pth
-
视频解码器:
models/Wan-AI/Wan2.1-T2V-1.3B/Wan2.1_VAE.pth
如果需要更换14b的模型,在截图下更改模型即可
下面就是一些gradio界面代码了,大家可以对照界面参考一下
更多推荐
所有评论(0)