【通义万相 Wan2.1】在并行智算云上的部署教程
一、环境准备与部署
-
注册并行智算云账号:
-
访问并行智算云官网 https://ai.paratera.com/#/register,填写相关信息完成注册并登录。
-
-
选择镜像与实例配置:
-
在并行智算云平台中,选择适合通义万相 Wan2.1 的镜像版本(如 1.3B 或 14B 参数版本),并根据需求配置实例(如显存大小等)。1.3B 模型仅需 8.2GB 显存即可生成 480P 视频。
-
-
远程登录:
-
完成实例部署后,通过远程登录工具(如 SSH)连接到实例。
-
二、模型部署
-
克隆项目代码:
bash复制
git clone https://github.com/Wan-Video/Wan2.1.git cd Wan2.1
-
安装依赖:
bash复制
pip install -r requirements.txt
如果安装
flash-attn
较慢,可以直接下载安装包离线安装。 -
下载模型:
bash复制
pip install modelscope modelscope download --model Wan-AI/Wan2.1-T2V-14B --local_dir ./Wan2.1-T2V-14B
或者使用
bashhuggingface-cli
下载:复制
huggingface-cli download Wan-AI/Wan2.1-T2V-14B --local-dir ./Wan2.1-T2V-14B
-
配置参数文件:
-
编辑
configs/wanxiang_{1.3B/14B}.yaml
,根据需求调整参数,例如显存优化、分辨率等。
-
三、调用模型生成视频
-
文生视频:
-
使用 Python 脚本调用模型:
Python复制
from wanxiang import WanxiangPipeline pipeline = WanxiangPipeline.from_pretrained("path/to/model", config="configs/wanxiang_1.3B.yaml") video = pipeline.generate(prompt="一只猫在雪地中跳跃,雪花飘落,风格为3D卡通",num_frames=120,fps=24,resolution="1080p" ) video.save("output.mp4")
-
或者使用命令行工具:
bash复制
python generate.py --task t2v-1.3B --size 832*480 --ckpt_dir ./Wan2.1-T2V-1.3B --sample_shift 8 --sample_guide_scale 6 --prompt "一只可爱的小狗在草坪上奔跑"
-
-
图生视频:
-
使用 Python 脚本:
Python复制
video = pipeline.generate_from_image(image_path="input.jpg",prompt="将图片转换为日落时分的电影风格",motion_intensity=0.7 # 控制运动幅度(0-1) ) video.save("output.mp4")
-
四、视频下载与查看
-
下载生成的视频:
-
可以使用
bashscp
命令将生成的视频从云服务器下载到本地:复制
scp -P 23 root@your_server_ip:/path/to/video.mp4 .
-
或者启动一个 HTTP 文件服务器,通过浏览器下载:
bash复制
python -m http.server
然后通过云服务器的外网 IP 地址加端口访问下载。
-
注意事项
-
CUDA 和 CUDNN 版本:确保 CUDA 和 CUDNN 版本与模型要求一致,避免兼容性问题。
-
显存要求:14B 模型需要至少 24GB 显存,1.3B 模型需要至少 12GB 显存。
-
提示词优化:使用高质量的提示词可以显著提升生成视频的效果。
通过以上步骤,您可以在并行智算云上成功部署并调用通义万相 Wan2.1 视频生成模型,生成高质量的视频内容。