Py之dashscope:dashscope的简介、安装和使用方法、案例应用之详细攻略

Py之dashscope:dashscope的简介、安装和使用方法、案例应用之详细攻略

目录

dashscope的简介

1、产品的主要特点和优势包括:

dashscope的安装和使用方法

1、安装

2、使用方法

dashscope的案例应用

1、通义千问-Max:通义千问2.5系列

2、通义千问-摘要增强版

3、Qwen-Long:支持最长1000万tokens


dashscope的简介

DashScope(模型服务灵积),灵积通过灵活、易用的模型API服务,让各种模态模型的能力,都能方便的为AI开发者所用。通过灵积API,开发者不仅可以直接集成大模型的强大能力,也可以对模型进行训练微调,实现模型定制化。

DashScope(模型服务灵积)是一个基于“模型即服务”(Model-as-a-Service,MaaS)理念的模型服务平台,由阿里云提供。该平台致力于为AI应用开发者提供丰富多样的模型选择,并通过标准化API接口提供包括模型推理、模型微调训练在内的多种模型服务。DashScope的服务以模型为中心,支持AI开发者通过简单的API调用直接集成大模型的能力,同时也支持对模型进行训练微调,实现模型的定制化。

此外,DashScope还提供了免费试用服务,允许开发者在开通服务后查看和使用多种模型。不同模型具有不同的计量单位和免费额度,具体计费方式根据所调用的模型决定。例如,某些模型的计费单元可能是token(用于表示自然语言文本的基本单位),而其他模型可能基于图片张数或时间(秒)进行计费。

总的来说,DashScope是一个功能强大且易于使用的模型服务平台,它为AI应用开发者提供了丰富的模型选择和灵活的服务,使得AI应用开发更加简单和高效。

官网模型服务灵积 DashScope - 阿里云

1、产品的主要特点和优势包括:

>> 灵活、易用的模型API服务:DashScope提供易于使用的API接口,使得开发者可以方便地集成和使用各种模态模型的能力。

>> 强大的模型支持:依托于业界各领域的优质模型和阿里云强大的基础设施,DashScope为开发者提供了广泛且强大的模型支持。

>> 模型定制化能力:除了直接集成大模型的能力,DashScope还支持对模型进行训练微调,以满足特定应用需求。

>> 标准化API接口:通过标准化的API,DashScope简化了模型服务的集成和使用过程,提高了开发效率。

>> 安全合规性:DashScope提供跨地域的弹性高可用保障、精准的访问权限控制和全面的平台审计功能,确保模型服务全链路的安全稳定和可信。

dashscope的安装和使用方法

1、安装

pip install dashscope

pip install -i https://mirrors.aliyun.com/pypi/simple dashscope

2、使用方法

from http import HTTPStatus
import dashscope
from dashscope import Generation

dashscope.api_key = 'sk-********6b8ff'
responses = Generation.call(model=Generation.Models.qwen_turbo,
                            prompt='今天天气好吗?')

if responses.status_code == HTTPStatus.OK:
    print(responses.output['text'])
else:
    print('Failed request_id: %s, status_code: %s, code: %s, message:%s' %
            (responses.request_id, responses.status_code, responses.code,
            responses.message))

dashscope的案例应用

持续更新中……

更多案例应用阿里云登录 - 欢迎登录阿里云,安全稳定的云计算服务平台

1、通义千问-Max:通义千问2.5系列

通义千问2.5系列千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级。如果希望使用固定版本,请使用历史快照版本。当前qwen-max模型与qwen-max-0428快照版本等价,均为最新版本的qwen-max模型。


from http import HTTPStatus
from dashscope import Generation


def call_with_stream():
    messages = [
        {'role': 'user', 'content': '如何做西红柿炖牛腩?'}]
    responses = Generation.call("qwen-max",
                                messages=messages,
                                result_format='message',  # 设置输出为'message'格式
                                stream=True,  # 设置输出方式为流式输出
                                incremental_output=True  # 增量式流式输出
                                )
    for response in responses:
        if response.status_code == HTTPStatus.OK:
            print(response.output.choices[0]['message']['content'], end='')
        else:
            print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
                response.request_id, response.status_code,
                response.code, response.message
            ))

if __name__ == '__main__':
    call_with_stream()

2、通义千问-摘要增强版

在大模型通用能力基础上,专门增强了大模型的「文本摘要和总结」能力。

# 业务空间模型调用请参考文档传入workspace信息: https://help.aliyun.com/document_detail/2746874.html    
        
from http import HTTPStatus
from dashscope import Generation

def call_with_stream():
    messages = [
        {'role': 'user', 'content': '如何做西红柿炖牛腩?'}]
    responses = Generation.call("bailian-summary",
                                messages=messages,
                                result_format='message',  # 设置输出为'message'格式
                                stream=True, # 设置输出方式为流式输出
                                incremental_output=True  # 增量式流式输出
                                )
    for response in responses:
        if response.status_code == HTTPStatus.OK:
            print(response.output.choices[0]['message']['content'],end='')
        else:
            print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
                response.request_id, response.status_code,
                response.code, response.message
            ))


if __name__ == '__main__':
    call_with_stream()

3、Qwen-Long:支持最长1000万tokens

Qwen-Long是在通义千问针对超长上下文处理场景的大语言模型,支持中文、英文等不同语言输入,支持最长1000万tokens(约1500万字或1.5万页文档)的超长上下文对话。配合同步上线的文档服务,可支持word、pdf、markdown、epub、mobi等多种文档格式的解析和对话。 说明:通过HTTP直接提交请求,支持1M tokens长度,超过此长度建议通过文件方式提交。

from openai import OpenAI

client = OpenAI(
    api_key="$your-dashscope-api-key",  # 替换成真实DashScope的API_KEY
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",  # 填写DashScope服务endpoint
)

completion = client.chat.completions.create(
    model="qwen-long",
    messages=[
        {
            'role': 'system',
            'content': 'You are a helpful assistant.'
        },
        {
            'role': 'system',
            'content': '大型语言模型(llm)已经彻底改变了人工智能领域,使以前被认为是人类独有的自然语言处理任务成为可能...'
        },
        {
            'role': 'user',
            'content': '文章讲了什么?'
        }
    ],
    stream=True
)
for chunk in completion:
    if chunk.choices[0].delta.content is not None:
        print(chunk.choices[0].dict())

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一个处女座的程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值