Ollama安装WebUi页面集成


前言

之前文章发表了如何本地部署Ollma,但只能在控制台操作,这样不是很方便。所以这篇文档教大家如何部署OpenWebUi页面。

提示:以下是本篇文章正文内容,下面案例可供参考

一、WebUI好用吗,优势是什么?

🚀轻松设置:使用Docker或Kubernetes (kubectl、kustomize或helm)无缝安装,获得对两者都支持的无忧体验:ollama和:cuda标记的图像。

🤝Ollama/OpenAI API集成:轻松集成兼容OpenAI的API,与Ollama型号一起进行多功能对话。自定义要链接的OpenAI API URLLMStudio、GroqCloud、Mistral、OpenRouter等等.

🧩管道,开放WebUI插件支持:使用将自定义逻辑和Python库无缝集成到开放式WebUI中管道插件框架。启动Pipelines实例,将OpenAI URL设置为Pipelines URL,探索无限的可能性。例子包括函数调用,用户限速为了控制访问,使用监控有了像Langfuse这样的工具,带LibreTranslate的实时翻译对于多语言支持,有毒邮件过滤还有更多。

📱响应式设计:享受跨越台式机、笔记本电脑和移动设备的无缝体验。

📱用于移动设备的渐进式网络应用程序(PWA):借助我们的PWA,在您的移动设备上享受类似原生应用的体验,提供本地主机上的离线访问和无缝用户界面。

✒️🔢完全降价和LaTeX支持:通过全面的降价和LaTeX功能提升您的LLM体验,丰富互动。

🎤📹免提语音/视频通话:通过集成的免提语音和视频通话功能体验无缝通信,营造更具活力和互动性的聊天环境。

🛠️模型构建器:通过Web用户界面轻松创建Ollama模型。创建和添加自定义角色/代理,自定义聊天元素,并通过轻松导入模型开放WebUI社区整合。

🐍原生Python函数调用工具:使用工具工作区中内置的代码编辑器支持来增强您的LLM。通过简单地添加您的纯Python函数,带来您自己的函数(BYOF ),实现与LLMs的无缝集成。

📚本地RAG集成:通过突破性的检索增强生成(RAG)支持,探索聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中或将文件添加到您的文档库中,使用#查询前的命令。

🌐网络浏览能力:使用将网站无缝集成到您的聊天体验中#命令后跟一个URL。此功能允许您将网络内容直接融入您的对话,增强互动的丰富性和深度。

🎨图像生成集成:使用AUTOMATIC1111 API或ComfyUI(本地)和OpenAI的DALL-E(外部)等选项无缝整合图像生成功能,通过动态视觉内容丰富您的聊天体验。

⚙️许多模型对话:轻松地同时与各种模型互动,利用它们的独特优势实现最佳响应。通过并行利用一组不同的模型来增强您的体验。

🔐基于角色的访问控制(RBAC):使用受限权限确保安全访问;只有获得授权的个人才能访问您的Ollama,并且只有管理员才有权创建/提取模型。

🌐🌍多语言支持:在我们的国际化(i18n)支持下,体验以您的首选语言打开WebUI。加入我们,扩展我们支持的语言!我们正在积极寻找贡献者!

🌟持续更新:我们致力于通过定期更新、修复和新功能来改进Open WebUI。

二、使用步骤

1.如何安装

Docker快速入门🐳
当使用Docker安装Open WebUI时,请确保包含-v open-webui:/app/backend/data在你的码头指挥下。这一步至关重要,因为它确保您的数据库被正确装载,并防止任何数据丢失。

如果Ollama在你的电脑上,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/o

有GPU支持:通过运行以下命令来利用GPU资源:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
仅用于CPU:如果您没有使用GPU,请使用以下命令:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/ope


总结

Open WebUI是一个可扩张的,功能丰富且用户友好的自托管WebUI,旨在完全离线操作。它支持各种LLM运行器,包括Ollama和OpenAI兼容的API。

  • 25
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值