快速高效使用——阿里通义万相2.1的文生图、文生视频功能

前言:你仅需提供简单的几个提示词,即可快速高效帮你生成更为丰富的提示词并生成满意的图片或者视频。无论是为了创作艺术作品、设计商业宣传素材,还是满足个人兴趣爱好等,都能快速将脑海中的想法转化为逼真的图片或生动的视频。

目录

1.通义万相2.1简介

2.快速高效文生图

3.快速高效文生视频


1.通义万相2.1简介

通义万相 2.1 是阿里推出的一款先进的视频模型,其功能涵盖了文生图与文生视频两大核心板块,旨在为用户提供前所未有的创意实现体验。

在文生图方面,它能够精准解读用户输入的简单提示词,借助本地部署的通义千问 Qwen2.5_7B 强大的语言处理能力,对提示词进行深度拓展与优化,生成更为丰富、准确的描述,再通过 Wan2.1-T2V-1.3B 文生成图模型,快速将文字转化为令人满意的精美图片。

在文生视频领域,同样依托这一语言处理与生成模型体系,把用户输入的简短文字描述转化为连贯、生动的视频内容,极大地降低了视频创作的门槛,让创意表达更加轻松自如。其高效性与易用性,使其在同类产品中脱颖而出,为广大创作者打开了创意实现的新大门 。

2.快速高效文生图

接下来介绍如何快速高效使用阿里视频模型万相2.1其中的文生图功能。通过简单的几个提示词,即可帮你生成更为丰富的提示词并生成满意的图片。其中语言处理使用本地部署的通义千问Qwen2.5_7B,文生成图模型使用Wan2.1-T2V-1.3B。

首先登录如下云服务器,可轻松应用通义万相2.1,并且还可方便部署更多其他模型,例如deepseek满血版等。

https://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51ehttps://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51e

登录进来之后,点击首页上方栏中的“应用市场”。

跳转到如下界面,点击阿里万相2.1 文生图处的部署按钮。

点击部署按钮后即可弹出如下图右侧弹窗,可以选择自己需要的GPU型号,点击确定立即购买。 

自动跳转到如下工作空间后等待创建成功 。

然后点击快速启动应用。 

 

随后会跳转到如下界面。

1)在页面左侧输入关键词。可以在下面切换中英文(CH/EN)。

例如,我输入:一个美丽的女生在公园散步

2)点击关键词下面的Prompt Enhance按钮,几分钟后生成更加丰富的提示词。

3)在页面左下方点击Generate Image按钮,几分钟后生成图像在页面右侧。

如下图右侧为生成的图片,点击下载即可保存。

可以看到我只输入了几个提示词,然后通过语言处理拓展更为丰富的提示词,快速高效通过文生图模型生成了我想要的图片。

不用的时候,点击该工作空间的关机按钮即可。

3.快速高效文生视频

接下来介绍如何快速高效使用阿里视频模型万相2.1其中的文生视频功能。和前面所讲的文生图的操作是一样的。也是一样的,通过简单的几个提示词,即可帮你生成更为丰富的提示词并生成满意的视频。一样的,其中语言处理使用本地部署的通义千问Qwen2.5_7B,文生成图模型使用Wan2.1-T2V-1.3B。

也是一样,首先登录如下云服务器,可轻松应用通义万相2.1,并且还可方便部署更多其他模型,例如deepseek满血版等。

https://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51ehttps://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51e登录进来之后,点击首页上方栏中的“应用市场”。

跳转到如下界面,点击阿里万相2.1 文生视频处的部署按钮。

点击部署按钮后即可弹出如下图右侧弹窗,可以选择自己需要的GPU型号,点击确定立即购买

自动跳转到如下工作空间后等待创建成功 。

然后点击快速启动应用。 

随后会跳转到如下界面。

  1)在页面左侧输入关键词。可以在下面切换中英文(CH/EN)。

例如,我输入:一个美丽的女生在公园散步

2)点击关键词下面的Prompt Enhance按钮,几分钟后生成更加丰富的提示词。

3)在页面左下方点击Generate Image按钮,几分钟后生成图像在页面右侧。点击下载即可保存。

可以看到我只输入了几个提示词,然后通过语言处理拓展更为丰富的提示词,快速高效通过文生视频模型生成了我想要的视频。

不用的时候,点击该工作空间的关机按钮即可。

### 阿里通义2.1 版本特性 阿里云于2025年225日深夜宣布开源视频生成模型通义2.1,此版本提供了两个主要参数规模的选择:文生视频-1.3B和文生视频-14B。这两个版本旨在满足不同的应用场景和技术需求[^1]。 #### 文生视频-1.3B 和 文生视频-14B 的特点 - **文生视频-1.3B**:适合资源有限但希望尝试高质量视频生成的个人开发者或小型团队。 - **文生视频-14B**:针对更复杂、更高精度的任务设计,适用于专业级应用开发以及研究机构。 ### 使用说明 为了方便全球范围内的开发者获取并利用这些先进的技术成果,官方已开放多个平台供下载: - GitHub - Hugging Face - 魔搭社区 用户可以根据自己的偏好选择合适的渠道来访问源码及关文档资料。 对于想要深入了解如何操作该工具的人来说,建议前往[通义官方网站](https://wanxiang.aliyun.com/)进行注册申请账号,并查阅详细的API接口指南和其他支持材料[^2]。 ### 更新内容 此次发布的通义2.1不仅实现了完全开源共享,在性能优化方面也取得了显著进步,具体表现在以下几个方面: - 提升了像到视频转换的质量; - 增强了自然语言处理能力,使得描述文字能够更加精准地映射成视觉效果; - 改进了多模态融合机制,从而更好地理解输入数据之间的关联性; 此外,还修复了一些之前存在的Bug,并增加了新的功能模块以扩展系统的适用性和灵活性。 ```python import torch from transformers import AutoModelForVideoGeneration, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("path_to_model") # 替换为实际路径 model = AutoModelForVideoGeneration.from_pretrained("path_to_model") text_input = tokenizer("A beautiful sunset over the ocean", return_tensors="pt") video_output = model.generate(**text_input) print(video_output.shape) # 输出生成视频张量大小 ```
评论 100
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿齐Archie

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值