一. Ollama 搭建本地大模型
1. 安装 Ollama
参考 Ollama 官方文档
2. 安装 llama3
ollama run llama3
二. LiteLLM 使用
LiteLLM 有两种使用方式:
- OpenAI 代理服务器
- LiteLLM Python SDK
1. LiteLLM Python SDK
from litellm import completion
response = completion(
model="ollama/llama3",
messages = [
利用Ollama和LiteLLM搭建本地大模型并进行Python集成

本文介绍了如何在本地安装和配置Ollama以及其子项目LiteLLM,包括使用LiteLLMPythonSDK和通过OpenAI代理服务器调用大模型进行交互。详细步骤包括安装、API调用示例和代码片段.
最低0.47元/天 解锁文章
652

被折叠的 条评论
为什么被折叠?



