千亿通问API调用方法实践

from openai import OpenAI

client = OpenAI(
    api_key="sk-2aa63199880e4fa19b01fa2b96e9112d",  # 替换成真实DashScope的API_KEY
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",  # 填写DashScope服务endpoint
)

completion = client.chat.completions.create(
    model="qwen-long",
    messages=[
        {
            'role': 'system',
            'content': 'You are a helpful assistant.'
        },
        # {
        #     'role': 'system',
        #     'content': '大型语言模型(llm)已经彻底改变了人工智能领域,使以前被认为是人类独有的自然语言处理任务成为可能...'
        # },
        {
            'role': 'user',
            'content': '在Python中,百分号(%)有哪些作用?'
        }
    ],
    stream=True
)
for chunk in completion:
    if chunk.choices[0].delta.content is not None:
        print(chunk.choices[0].dict())

这段代码的主要目的是使用OpenAI的API与通义千问的服务进行交互,并生成一个基于特定模型的对话。目前阿里系模型可以支持原生API和OPENAPI两种方式。

首先,代码从openai模块中导入了OpenAI类,并创建了一个OpenAI客户端实例。客户端实例需要两个参数:api_keybase_urlapi_key用于身份验证,base_url指定了DashScope服务的API endpoint。

接着,代码调用了client.chat.completions.create方法来创建一个新的对话。该方法接收几个参数:

  1. model:要使用的模型名称,这里使用了"qwen-long"。
  2. messages:一个列表,包含对话中的消息。每条消息由一个字典表示,字典中包含了消息的rolecontent。其中,role指定了消息的角色(如系统或用户),content指定了消息的内容。
  3. stream:一个布尔值,如果为True,则响应会以流的形式返回,而不是一次性返回所有结果。

最后,代码使用一个循环来迭代响应中的每个块(chunk)。对于每个块,如果第一个选择(choice)的增量(delta)的内容不为None,则打印该选择的内容。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值