一、登录阿里云
打开这个网址:
二、创建apikey
三、python示例代码
四、模型介绍
模型系列 | 模型名称 | 模型简介 | 模型输入/输出限制 |
通义千问-Turbo | qwen-turbo | 通义千问超大规模语言模型,支持中文、英文等不同语言输入。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-turbo-0206 | 通义千问超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-turbo的2024年2月6号的历史快照稳定版本,仅推荐特定需求客户访问。 | ||
qwen-turbo-0624 | 通义千问超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-turbo的2024年6月24号的历史快照稳定版本,仅推荐特定需求客户访问。 | ||
通义千问-Plus | qwen-plus | 通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。 | 模型支持32k tokens上下文,为了保证正常的使用和输出,API限定用户输入为30k tokens。 |
qwen-plus-0206 | 通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。该模型为qwen-plus的2024年2月6号的历史快照稳定版本,仅推荐特定需求客户访问。 | ||
qwen-plus-0624 | 通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。该模型为qwen-plus的2024年6月24号的历史快照稳定版本,仅推荐特定需求客户访问。 | ||
通义千问-Max | qwen-max | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级。如果希望使用固定版本,请使用历史快照版本。当前qwen-max模型与qwen-max-0428快照版本等价,均为最新版本的qwen-max模型,也是当前通义千问2.5产品版本背后的API模型。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-max-0428 | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型与当前的qwen-max版本对齐,为qwen-max的2024年4月28号的历史快照,预期维护到下个快照版本发布时间(待定)后一个月。 | ||
qwen-max-0403 | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年4月3号的历史快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。 | ||
qwen-max-0107 | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年1月7号的历史快照稳定版本,仅推荐特定需求客户访问。 | ||
qwen-max-longcontext | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。 | 模型支持30k tokens上下文,为了保证正常的使用和输出,API限定用户输入为28k tokens。 |
五、模型计费介绍
Token是模型用来表示自然语言文本的基本单位,可以直观的理解为“字”或“词”。对于中文文本来说,1个token通常对应一个汉字;对于英文文本来说,1个token通常对应3至4个字母。
通义千问模型服务根据模型输入和输出的token数量进行计量计费,其中多轮对话中的history作为输入也会进行计量计费。每一次模型调用产生的实际token数量可以从 response 中获取。
字符串与token之间的互相转换
不同的大模型切分token的方法可能不同。您可以使用SDK在本地查看经过通义千问模型切分后的token数据。
本地运行的tokenizer可以用来估计文本的token量,但是得到的结果不保证与模型服务端完全一致,仅供参考。如果您对通义千问的tokenizer细节感兴趣,请参考: tokenizer参考
计费单价
模型服务 | 模型规格 | 输入(input)价格 | 输出(output)价格 | 计费模式 |
Qwen-Long | qwen-long | 0.0005元/1,000 tokens | 0.002元/1,000 tokens | 后付费 |
通义千问-Turbo | qwen-turbo | 0.002元/1,000 tokens | 0.006元/1,000 tokens | 后付费 |
qwen-turbo-0206 | ||||
qwen-turbo-0624 | ||||
通义千问-Plus | qwen-plus | 0.004元/1,000 tokens | 0.012元/1,000 tokens | 后付费 |
qwen-plus-0206 | ||||
qwen-plus-0624 | ||||
qwen-plus-0723 | ||||
通义千问-Max | qwen-max | 0.04元/1,000 tokens | 0.12元/1,000 tokens | 后付费 |
qwen-max-0428 | 0.04元/1,000 tokens | |||
qwen-max-0403 | 0.04元/1,000 tokens | |||
qwen-max-0107 | 0.04元/1,000 tokens | |||
qwen-max-1201 | 0.12元/1,000 tokens | |||
qwen-max-longcontext | 0.04元/1,000 tokens |
说明
模型名称变更通知:
qwen-turbo
- 原来为
qwen-v1
。qwen-v1
计费与qwen-turbo
保持一致。qwen-v1
模型已弃用,请使用qwen-turbo
。 qwen-plus
原来为qwen-plus-v1
。qwen-plus-v1
计费与qwen-plus
保持一致。qwen-plus-v1
模型已弃用,请使用qwen-plus
。
免费额度
模型服务 | 模型名 | 免费额度 |
Qwen-Long | qwen-long | 100万tokens 领取方式:开通阿里云百炼服务后,自动发放; 有效期:30天 |
通义千问-Turbo | qwen-turbo | |
qwen-turbo-0206 | ||
qwen-turbo-0624 | ||
通义千问-Plus | qwen-plus | |
qwen-plus-0206 | ||
qwen-plus-0624 | ||
qwen-plus-0723 | ||
通义千问-Max | qwen-max | |
qwen-max-0428 | ||
qwen-max-0403 | ||
qwen-max-0107 | ||
qwen-max-1201 | ||
qwen-max-longcontext |
基础限流
为了保证用户调用模型的公平性,通义千问系列模型设置了基础限流。限流是基于模型维度的,并且和调用用户的阿里云主账号相关联,按照该账号下所有API-KEY调用该模型的总和计算限流。如果超出调用限制,用户的API请求将会因为限流控制而失败,用户需要等待一段时间待满足限流条件后方能再次调用。
模型服务 | 模型名 | 基础限流 | 超出基础限流申请 |
Qwen-long | qwen-long | 以下条件任何一个超出都会触发限流:
| 暂无申请方式 |
通义千问-Turbo | qwen-turbo | 以下条件任何一个超出都会触发限流:
| |
qwen-turbo-0206 | 以下条件任何一个超出都会触发限流:
| 暂无申请方式 | |
qwen-turbo-0624 | 以下条件任何一个超出都会触发限流:
| ||
通义千问-Plus | qwen-plus | 以下条件任何一个超出都会触发限流:
| |
qwen-plus-0206 | 以下条件任何一个超出都会触发限流:
| 暂无申请方式 | |
qwen-plus-0624 | 以下条件任何一个超出都会触发限流:
| ||
qwen-plus-0723 | 以下条件任何一个超出都会触发限流:
| ||
通义千问-Max | qwen-max | 以下条件任何一个超出都会触发限流(限时免费开放中,限流策略可能随时变化):
| |
qwen-max-0428 | |||
qwen-max-0403 | |||
qwen-max-1201 | |||
qwen-max-0107 | 以下条件任何一个超出都会触发限流(限时免费开放中,限流策略可能随时变化):
| ||
qwen-max-longcontext | 以下条件任何一个超出都会触发限流:
|
重要 :有些模型先使用再扣费,一定要注意!注意!注意!
重要 :有些模型先使用再扣费,一定要注意!注意!注意!
重要 :有些模型先使用再扣费,一定要注意!注意!注意!