大模型API调用(一)简单用法

大模型API调用是指通过编程接口(API)访问大型人工智能模型,以实现自然语言处理、代码生成、内容创作等多种功能。大模型的API扮演了一个接口(Interface)的角色,它允许用户以编程方式与大模型进行交互,而无需深入了解模型内部的复杂结构和算法。这种模式类似于模型即服务(Model as a Service, MaaS),其中大模型被封装成一个可访问的服务,用户只需通过发送HTTP请求并遵循API规范,即可获得模型针对特定输入(即用户的问题或prompt)的输出。

以智谱AI为例,演示如何调用大模型。智谱AI致力于打造新一代认知智能大模型,专注于做大模型的中国创新,是一家在人工智能领域具有显著影响力的企业。

一、获取API-key

官网智谱AI开放平台进行注册,完成实名认证后可获得免费的使用额度。

进入工作台—>API密钥,即可看到自己的API keys

二、准备工作

智谱AI提供了两种方式来实现API的调用,分别是SDK (软件开发工具包)和原生 HTTP ,建议使用 SDK进行调用以获得更好的编程体验。

pip install zhipuai

三、调用方式

平台提供了同步、异步、以及SSE(Server-Sent Events,服务器发送事件)三种调用方式。

from zhipuai import ZhipuAI
 
client = ZhipuAI(api_key="###") # 填写您自己的APIKey

#同步调用:向聊天服务发送消息并接收回复
def zhipu_syn(prompt):
    response = client.chat.completions.create(
        model="glm-4",  # 填写需要调用的模型名称
        messages=[
            {
                "role": "user",
                "content": prompt
            }
        ],
    )
    print(response.choices[0].message)

#异步调用:调用后会立即返回一个任务 ID,然后用任务ID查询调用结果(但我不知道咋查询)
def zhipu_asyn(prompt):
    response = client.chat.asyncCompletions.create(
        model="glm-4",  # 填写需要调用的模型名称
        messages=[
            {
                "role": "user",
                "content": prompt
            }
        ],
    )
    print(response)

#SSE调用:以流的形式接收数据。然后遍历响应的块(chunks),并打印每个块的 delta 属性。
def zhipu_sse(prompt):
    response = client.chat.completions.create(
        model="glm-4",  # 填写需要调用的模型名称
        messages=[
            {
                "role": "user",
                "content": prompt
            }
        ],
        stream=True
    )
    for chunk in response:
        print(chunk.choices[0].delta)

四、进阶用法(待更新)

  • 4
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

努力毕业的每一天

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值