一种调用所有LLM模型API的方式

公众号:【可乐前端】,每天3分钟学习一个优秀的开源项目,分享web面试与实战知识,也有全栈交流学习摸鱼群,期待您的关注!

每天3分钟开源

hi,这里是每天3分钟开源,很高兴又跟大家见面了,今天介绍的开源项目简介如下:

仓库名:BerriAI/litellm

项目名:litellm

开源地址:https://github.com/BerriAI/litellm

主要语言: Python

stars数量:6773

forks数量:738

开源协议:Other

一句话介绍

这是一个能够使用OpenAI格式调用所有LLM API的开源项目。

详细描述

LiteLLM 是一个公共项目,它可以使用OpenAI格式调用所有的LLM API。

这款工具支持使用Bedrock、Azure、OpenAI、Cohere、Anthropic、Ollama、Sagemaker、HuggingFace、Replicate等(100+ LLMs)。

LiteLLM 能够将输入翻译成供应商的完成、嵌入和图像生成端点。输出始终保持一致,文本响应始终可以在 ['choices'][0]['message']['content'] 中找到。LiteLLM 还具有重试/回退逻辑,可以跨多个部署(例如 Azure/OpenAI)进行路由。

此外,LiteLLM 还允许你为每个项目、API密钥和模型设置预算和速率限制。

具体功能

  1. LiteLLM 可以调用所有供应商(包括Bedrock、Huggingface、VertexAI、TogetherAI、Azure、OpenAI等)的所有LLM API,从而管理各种功能。
  2. LiteLLM 提供了一致的输出格式,使得文本响应始终可以在特定的位置找到。
  3. LiteLLM 具备重试/回退逻辑,能够在多个部署之间进行路由,如Azure和OpenAI。
  4. LiteLLM 允许为每个项目、API密钥和模型设置预算和速率限制。
  5. LiteLLM 提供了稳定的版本发布,例如推荐的稳定代理版本v 1.30.2。
  6. LiteLLM 支持更多的供应商,如果缺少供应商或LLM平台,可以提出功能请求。

如何使用

  1. 安装 LiteLLM
pip install litellm
  1. 设置环境变量
import os
os.environ["OPENAI_API_KEY"] = "your-openai-key"
os.environ["COHERE_API_KEY"] = "your-cohere-key"
  1. 创建消息
messages = [{"content": "Hello, how are you?","role": "user"}]
  1. 调用模型
from litellm import completion
# openai call
response = completion(model="gpt-3.5-turbo", messages=messages)
# cohere call
response = completion(model="command-nightly", messages=messages)
print(response)

在调用模型时,你可以指定任何供应商支持的模型,模型的格式为 <provider_name>/<model_name>。每个供应商可能有特定的细节,因此需要参考供应商的文档以获取更多信息。

最后

感谢您的阅读,这里每天都会推送优秀的开源项目,如果觉得有帮助的话,一键三连一下吧~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值