如何在 Windows 上安装和使用 Ollama WebUI

什么是 Open WebUI(以前称为 Ollama WebUI)?

        Open WebUI是一款可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线运行。它支持各种 LLM 运行器,包括 Ollama 和 OpenAI 兼容 API。

        Ollama WebUI 是一款革命性的 LLM 本地部署框架,具有类似 chatGPT 的 Web 界面。让我们为您部署在 ollama 上的 LLM 获取类似 chatGPT 的 Web UI 界面。只需按照以下 5 个步骤即可开始使用。

系统要求

        Windows 10 64 位:最低要求是 Home 或 Pro 21H2(内部版本 19044)或更高版本,或者 Enterprise 或 Education 21H2(内部版本 19044)或更高版本。

        Windows 11 64 位:家庭版或专业版 21H2 或更高版本,或企业版或教育版 21H2 或更高版本。

        WSL 版本 1.1.3.0 或更高版本。在 Windows 上打开 WSL 2 功能。

        8 核 64 位处理器、16GB+ RAM、4GB+ VRAM 的 Nvidia 显卡

        Docker Desktop,最新版本

安装和使用 Ollama Web UI 的 5 个步骤

        在 Windows 计算机上深入研究 Ollama 和 Ollama WebUI 是进入人工智能和机器学习世界的一次激动人心的旅程。本详细指南将引导您完成每个步骤并提供示例以确保顺利启动。

第 1 步 - 安装 Ollama

        从https://ollama.com/download/windows下载 Ollama ,然后右键单击下载的 OllamaSetup.exe 文件并以管理员身份运行安装程序。安装完成后,Ollama 即可在您的 Windows 系统上使用。Ollama 图标将添加到桌面底部的托盘区域。

        要运行 Ollama 并开始使用其 AI 模型,您需要在 Windows 上使用终端。我们在此跳过此步骤,让我们看看如何安装 WebUI 以获得更好的体验。

第 2 步 - 安装 Ollama WebUI

        运行以下 docker 命令在本地计算机上部署 ollama-webui docker 容器。如果您的计算机上有 Ollama,请使用以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

        要连接到另一台服务器上的 Ollama,请将 OLLAMA_BASE_URL 更改为服务器的 URL。因此,如果 Ollama 位于不同的服务器上,请使用以下命令:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

        注意:使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 -v open-webui:/app/backend/data。此步骤至关重要,因为它可确保正确安装数据库并防止任何数据丢失。

步骤 3 - 登录以打开 WebUI

安装完成后,您可以通过http://localhost:3000访问Open WebUI。首次使用需要点击“注册”。

一旦注册,您将被引导至 ollama-webui 的主页。

步骤 4 - 从 Ollama.com 拉取模型

        点击右上角的设置图标,打开设置窗口,如下图所示,输入模型标签(例如llama2:7b,gemma:2b),点击右侧的下载按钮,等待模型下载完成。 

步骤 5 - 选择模型并享受您的 AI 聊天

如下图,我们下载了gemma:2b和llama2:7b模型,选择gemma:2b。

输入提示词“AI的未来是什么?”,按Enter键发送消息。

结论

        在本文中,介绍在 Windows 上使用 Ollama WebUI 的基础知识。Ollama 以其易用性、自动硬件加速和对综合模型库的访问而脱颖而出。Ollama WebUI 使其成为对人工智能和机器学习感兴趣的任何人的宝贵工具。

如果您喜欢此文章,请收藏、点赞、评论,谢谢,祝您快乐每一天。 

### 如何在 Windows安装配置 Ollama WebUI #### 准备工作 为了顺利安装并运行 Ollama WebUI,在开始之前需确保已准备好必要的软件环境。这包括但不限于 Docker Desktop 的安装,因为 Ollama WebUI 是基于容器化技术构建的应用程序。 #### 安装 Docker Desktop Docker Desktop 提供了一个易于使用的界面来管理 Docker 容器服务。对于 Windows 用户来说,官方推荐的方式是从官方网站下载适用于 Windows 的版本,并按照向导完成整个安装过程[^1]。 #### 配置 Docker 服务 启动 Docker Desktop 后,默认设置通常已经足够满足大多数需求;但对于特定应用场景可能还需要做一些额外调整。例如,如果计划使用 GPU 加速,则应确保启用了 WSL2 并正确设置了 NVIDIA Container Toolkit 支持[^2]。 #### 下载与部署 Ollama WebUI 当 Docker 已经就绪之后,可以通过命令行工具执行如下指令来拉取最新的 Ollama WebUI 映像并创建一个新的容器实例: ```bash docker pull ghcr.io/open-webui/open-webui:main ``` 接着通过下面这条命令可以启动该应用,并将其绑定到指定端口以便访问: ```bash docker run -d -p 3000:8080 \ -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ -v C:\path\to\data:/app/backend/data \ --name open-webui --restart always \ ghcr.io/open-webui/open-webui:main ``` 注意这里 `-v` 参数中的路径应当替换为你实际想要挂载的数据目录位置,而 `OLLAMA_BASE_URL` 则指向本地运行的 Ollama API 地址[^3]。 #### 访问 WebUI 接口 一旦上述步骤顺利完成,打开任意现代浏览器输入 http://localhost:3000 即可进入图形化的用户界面,从而更方便地管理调用各种大型语言模型功能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

csdn_aspnet

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值