2024年 最新python调用ChatGPT实战教程

2024年 最新python调用ChatGPT实战教程

一、前言

这个之前经常用到,简单记录一下,注意目前chatgpt 更新了,这个是最新版的,如果不是最新版的,请自行升级。

二、具体分析

openai 安装

pip install openai 

1、简版程序

该版本只有一轮

from openai import OpenAI
api_key = 'your apikey'
def openai_reply(content):

    client = OpenAI(api_key=api_key)

    chat_completion = client.chat.completions.create(
        messages=[
            {
                "role": "user",
                "content": content,
            }
        ],
        model="gpt-4-1106-preview",
    )
    return chat_completion.choices[0].message.content

if __name__=="__main__":
    while True:
        content = input("人类:")
        text1 = openai_reply(content)
        print("AI:" + text1)

2、多轮对话

这个版本有多轮,核心是加入记忆

from openai import OpenAI
api_key = 'your apikey'
def openai_replys(memory):

    client = OpenAI(api_key=api_key)
    chat_completion = client.chat.completions.create(
        messages=memory, # 记忆
        model="gpt-4-1106-preview",
    )
    memory.append({'role': 'assistant', 'content': chat_completion.choices[0].message.content})
    return chat_completion.choices[0].message.content

if __name__=="__main__":
    memory=[] # 上下轮记忆
    while True:
        content = input("人类:")
        memory.append({'role':'user','content':content})
        text1 = openai_replys(memory)
        print("AI:" + text1)

程序输出:
在这里插入图片描述

3、流式输出

这个版本有了流式输出,让你看起来不是卡主了的样子

from openai import OpenAI
api_key = 'your apikey'
def openai_stream(memory):

    client = OpenAI(api_key=api_key)
    stream = client.chat.completions.create(
        messages=memory, # 记忆
        model="gpt-4-1106-preview",
        stream=True,
    )
    return stream

if __name__=="__main__":
    memory=[]
    while True:
        content = input("人类:")
        memory.append({'role':'user','content':content})

        stream = openai_stream(memory)
        print("AI:",end='')
        aitext=''
        for chunk in stream:
            if chunk.choices[0].delta.content is not None:
                print(chunk.choices[0].delta.content, end="")
                aitext+=chunk.choices[0].delta.content
            else:
                print()
    memory.append({'role':'assistant','content':aitext})

4、返回消耗的token

返回消耗的token

token类型解释
completion_tokens输出token
prompt_tokens输入token
total_tokens全部token
from openai import OpenAI
import tiktoken

def calToken(memory,aitext,model="gpt-3.5-turbo"):
    try:
        encoding = tiktoken.encoding_for_model(model)
    except KeyError:
        print("Warning: model not found. Using cl100k_base encoding.")
        encoding = tiktoken.get_encoding("cl100k_base")
        
    completion_tokens = len(encoding.encode(aitext))
    prompt_tokens = num_tokens_from_messages(memory, model=model)
    token_count = completion_tokens + prompt_tokens
    return {"completion_tokens":completion_tokens, "prompt_tokens":prompt_tokens, "total_tokens":token_count}
def num_tokens_from_messages(messages, model="gpt-3.5-turbo"):
    """Returns the number of tokens used by a list of messages."""
    try:
        encoding = tiktoken.encoding_for_model(model)
    except KeyError:
        print("Warning: model not found. Using cl100k_base encoding.")
        encoding = tiktoken.get_encoding("cl100k_base")

    tokens_per_message = 8  # every message follows <|start|>{role/name}\n{content}<|end|>\n
    tokens_per_name = -1  # if there's a name, the role is omitted
    num_tokens = 0
    for message in messages:

        for key, value in message.items():

            if key=='content':
                num_tokens += len(encoding.encode(value))
            if key=='role' and value=='user':
                num_tokens += tokens_per_message

    num_tokens += tokens_per_name  # every reply is primed with <|start|>assistant<|message|>
    return num_tokens

api_key = 'your apikey'
def openai_chat(memory):

    client = OpenAI(api_key=api_key)
    stream = client.chat.completions.create(
        messages=memory, # 记忆
        model="gpt-4-1106-preview",
    )

    print('total Token:' + str(stream.usage))
    return stream.choices[0].message.content

if __name__=="__main__":
    memory=[] # 对话记忆
    while True:
        content = input("人类:")
        memory.append({'role':'user','content':content}) #记忆里面填充用户输入

        aitext = openai_chat(memory)
        print("AI:"+aitext)
        cocus=calToken(memory,aitext,model="gpt-4-1106-preview")
        print("消耗token:"+str(cocus))
        memory.append({'role': 'assistant', 'content': aitext})
  • 5
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

风吹落叶花飘荡

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值