通义万相2.1-文生视频-14B本地部署(Wan2.1)

昨天开源的通义万相2.1,今天抓紧本地部署,体验一把。

1.克隆项目

git clone https://github.com/Wan-Video/Wan2.1.git
cd Wan2.1

2.新建虚拟环境wan,并安装所需库。

conda create --wan myenv python=3.9
conda activate wan
pip install -r requirements.txt

3.修改环境变量,使模型下载到其他盘。(因为我的C盘快满了)(如果不需要,可以跳过此步)

4.使用命令行下载模型,大约半小时。

modelscope download --model Wan-AI/Wan2.1-T2V-14B

此时开始漫长的等待。下完大约64GB.

5.先使用命令行测试。注意:因为前面已经将下载模型的路径改了,所以这里一定要更改ckpt_dir为你的路径。我的路径是 "E:\modelscope\hub\Wan-AI\Wan2___1-T2V-14B"

python generate.py  --task t2v-14B --size 1280*720 --ckpt_dir "E:\modelscope\hub\Wan-AI\Wan2___1-T2V-14B" --prompt "Two anthropomorphic cats in comfy boxing gear and bright gloves fight intensely on a spotlighted stage."

开始推理了,GPU已经满负荷了。报错了,哈哈!GPU不足,看来4090跑不了720P的视频啊。

6.重复第四步,下载1.3B的模型,下载完大约16GB

modelscope download --model Wan-AI/Wan2.1-T2V-1.3B

7.再次运行,注意:因为前面已经将下载模型的路径改了,所以这里一定要更改ckpt_dir为你的路径。我的路径是 "E:\modelscope\hub\Wan2___1-T2V-1___3B"

python generate.py  --task t2v-1.3B --size 832*480 --ckpt_dir "E:\modelscope\hub\Wan-AI\Wan2___1-T2V-1___3B" --offload_model True --t5_cpu --sample_shift 8 --sample_guide_scale 6 --prompt "Two anthropomorphic cats in comfy boxing gear and bright gloves fight intensely on a spotlighted stage."

### 通义2.1本地部署教程和配置指南 #### 部署环境准备 为了成功部署通义2.1,在本地环境中需预先安装并配置必要的软件包和支持库。通常情况下,这包括但不限于Python解释器及其依赖项、虚拟环境管理工具如`virtualenv`或`conda`等。 对于操作系统的要求,建议采用Linux发行版或是具备良好兼容性的Windows子系统(Linux)版本[^1]。 ```bash sudo apt-get update && sudo apt-get install python3-pip virtualenv -y ``` #### 获取源码与初始化项目结构 通过官方渠道下载最新发布的通义2.1压缩包文件,并解压至目标目录下;或者克隆GitHub仓库中的对应分支获取最新的开发状态副本。完成之后进入工程根路径执行初始化命令创建独立运行所需的全部基础架构。 ```bash git clone https://github.com/your-repo/tongyi-wanxiang.git cd tongyi-wanxiang virtualenv venv --python=python3 source ./venv/bin/activate pip install -r requirements.txt ``` #### 数据集加载与预处理 根据具体应用场景的不同,可能还需要额外的数据准备工作。这部分工作涉及数据清洗、转换格式等一系列操作以确保输入符合预期标准。部分大型语言模型可能会自带训练好的权重参数可以直接用于推理阶段而无需重新训练整个网络结构。 #### 启动服务端口监听 当一切就绪后即可启动API服务器对外提供RESTful接口访问权限。默认情况下会绑定到localhost上的8080端口上等待客户端发起请求连接。如果希望开放给外部网络则需要调整应的防火墙策略允许特定IP地址范围内的设备接入。 ```bash export FLASK_APP=wsgi.py flask run --host=0.0.0.0 --port=8080 ``` #### 测试验证功能正常性 最后一步是对刚刚搭建起来的服务实例进行全面的功能测试,确认各个模块之间交互无误且能够稳定输出期望的结果。可以借助Postman这类图形界面HTTP调试工具发送模拟查询指令观察返回值是否合理有效。 ```json { "prompt": "你好世界", "max_tokens": 50, "temperature": 0.7 } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值