from openai import OpenAI
client = OpenAI(
api_key="sk-2aa63199880e4fa19b01fa2b96e9112d", # 替换成真实DashScope的API_KEY
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", # 填写DashScope服务endpoint
)
completion = client.chat.completions.create(
model="qwen-long",
messages=[
{
'role': 'system',
'content': 'You are a helpful assistant.'
},
# {
# 'role': 'system',
# 'content': '大型语言模型(llm)已经彻底改变了人工智能领域,使以前被认为是人类独有的自然语言处理任务成为可能...'
# },
{
'role': 'user',
'content': '在Python中,百分号(%)有哪些作用?'
}
],
stream=True
)
for chunk in completion:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].dict())
这段代码的主要目的是使用OpenAI的API与通义千问的服务进行交互,并生成一个基于特定模型的对话。目前阿里系模型可以支持原生API和OPENAPI两种方式。
首先,代码从openai
模块中导入了OpenAI
类,并创建了一个OpenAI
客户端实例。客户端实例需要两个参数:api_key
和base_url
。api_key
用于身份验证,base_url
指定了DashScope服务的API endpoint。
接着,代码调用了client.chat.completions.create
方法来创建一个新的对话。该方法接收几个参数:
model
:要使用的模型名称,这里使用了"qwen-long"。messages
:一个列表,包含对话中的消息。每条消息由一个字典表示,字典中包含了消息的role
和content
。其中,role
指定了消息的角色(如系统或用户),content
指定了消息的内容。stream
:一个布尔值,如果为True,则响应会以流的形式返回,而不是一次性返回所有结果。
最后,代码使用一个循环来迭代响应中的每个块(chunk)。对于每个块,如果第一个选择(choice)的增量(delta)的内容不为None,则打印该选择的内容。