- open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI) (github.com)
- 📝 Tutorial | Open WebUI
- Open WebUI
Tip:
Open WebUI、Ollama、Helm、ChromaDB、RAG、Pipelines、sentence-transformers库、
1、Open WebUI是一个可扩展的、自托管的AI界面,可适应您的工作流程,同时完全离线运行。支持各种LLM运行器,包括Ollama和OpenAI兼容的API。
- 下面安装方法使用将Open WebUI与Ollama捆绑在一起的单个容器映像,允许通过单个命令进行简化的设置。根据您的硬件设置选择适当的命令:
- 使用Docker安装Open WebUI时,请确保包含-v open-webui:/app/backend/data在您的Docker命令中。此步骤至关重要,因为它确保您的数据库已正确挂载并防止任何数据丢失。
- :dev分支包含最新的不稳定功能和更改。使用它的风险自负,因为它可能有错误或不完整的功能。
- 要连接到另一台服务器上的Ollama,请更改OLLAMA_BASE_URL到服务器的URL:
2、'Helm'部署:有关更多安装说明,请参阅 https://helm.sh/docs/intro/install/
3、RAG:
- RAG embeddings使用 ChromaDB, 是一种 AI 原生的开源向量数据库。它旨在存储向量嵌入,以便开发和构建大型语言模型应用程序。
- 搜索: search with BM25 + ChromaDB
- 设置embedding engine
- 设置reranking MODEL(使用 sentence-transformers 库可以轻松获取句子的向量表示,然后计算句子之间的相似度)
4、 Pipelines:UI-Agnostic OpenAI API Plugin Framework 这是一项开放WebUI计划。管道为任何支持OpenAI API规范的UI客户端带来模块化、可定制的工作流——等等!只需几行代码即可轻松扩展功能、集成独特逻辑并创建动态工作流。
- 为什么选择管道?
- 无限可能性:轻松添加自定义逻辑并集成Python库,从AI agents 到 home automation APIs。
- 无缝集成:与任何支持OpenAI API规范的UI/客户端兼容。(仅支持管道类型的管道;过滤器类型需要支持管道的客户端。)
- 自定义挂钩:构建和集成自定义管道。
- 实现的示例:
- 函数调用管道:使用自定义逻辑轻松处理函数调用并增强您的应用程序。
- 自定义RAG管道:实施根据您的需求定制的复杂检索-增强生成管道。
- 使用LibreTranslate的实时翻译过滤器:将实时翻译无缝集成到您的LLM交互中。