在前文中提到了笔记本电脑安装anaconda以及vscode的方法,本文主要介绍chatgpt需要的安装环境以及prompt工程的实现。(参考文献:《面向LLM的入门课程》)
环境部署
首先打开vscode创建一个环境
conda create -n chatgpt python=3.9
第二步,激活环境
conda activate chatgpt
第三步,在当前环境下安装pip,以保证后续安装的包都在此文件夹下面
conda install pip
第四步,引入相关的库
pip install python-dotenv
pip install openai
pip install langchain
pip install tool
pip install werkzeug
第五步,进入openai官网获得一个api key(可参考之前的文章)并保存入
.env
文件中,而后运行如下代码:
import os
import openai
from dotenv import load_dotenv, find_dotenv
# find_dotenv 寻找并定位.env文件的路径
# load_dotenv 读取该.env文件并将文件中的路径加载到当前运行环境中
# 获取prompt的提示与文本
# from tool. import get_completions
# 加载获得环境变量
def get_openai_key():
_ = load_dotenv(find_dotenv())
# # 加载获得环境变量
# openai.api_key = os.environ['OPENAI_API_KEY']
return os.environ['OPENAI_API_KEY']
def get_completions(prompt, model='gpt-3.5-turbo'):
messages = [{"role":"user", "content":prompt}]
response = openai.ChatCompletion.create(
model = model,
message = messages,
temperature = 0,
)
return response.choices[0].message["content"]
if __name__ == "main":
openai.api_key = get_openai_key()
text = f"""
给大模型输入prompt,大模型返回completion。\
经过prompt(指令微调)的LLM是指先在大规模文本数据上进行预训练掌握语言的基本规律,而后在此预训练语言模型的基础上进行训练与微调(即输入特定的指令,而等待其回复/输出对应的正确答案)。
"""
prompt = f"""
把用三个反引号括起来的文本总结成一句话。
'''{text}'''
"""
response = get_completions(prompt)
print(response)
至此,chatgpt环境部署结束。
CHATGPT API 调用程序以及成功的提示
import os
import openai
# openai.api_key = os.getenv('OPENAI_API_KEY')
# response = openai.Completion.create(model="text-davinci-003", prompt="Say Hello world", temperature=0, max_toke