litellm 支持灵活的proxy 模式可以更加方便得控制后端llm 以及特性,以下简单说明下
proxy 使用
对于proxy 实际上就是一个api web sever 目前可以通过两种模式运行,一种是直接cli 指定模型的,还有一种是基于配置文件的
对于简单项目基于cli 是比较快速的方法,如果希望更加灵活的控制以及实现更加强大的proxy 能力,基于配置文件是比较推荐的
- cli 模式
效果
使用
openai 模式使用了instructor 结构化工具
效果 (注意会发现模型太小的理解上不行)
- 配置文件模式
基于配置文件模式的功能很强大包含了配置lbb 策略,配置状态处理,配置db,配置trace 以及观测,同时还包含了一个ui 可以进行模型管理
参考配置 configv2.yaml
一些高级使用
- 多实例参考配置(核心是redis 的配置,实现状态共享)
参考配置
效果
- ui 配置
尽管ui 部分可以选择不同的llm,但是配置实际的模型的时候还是需要明确指定下provider,比如ollama 的还是应该使用ollama/qwen2:1.5b
格式的
说明
对于实际上litellm 的使用还是推荐基于proxy 的玩法,此玩法,更加强大,灵活同时支持更好的控制, 同时也包含了ui 可以方便控制
参考资料
https://docs.litellm.ai/docs/proxy/quick_start
https://docs.litellm.ai/docs/proxy/virtual_keys
https://docs.litellm.ai/docs/proxy/configs