已经启用了ollama并下载了模型,但是webui上选不到模型

以下是分步解决方案:


问题原因分析

Open WebUI 无法识别 Ollama 的模型,通常由以下原因导致:

  1. Ollama 服务未正确暴露给 Docker 容器
  2. 模型未正确下载或名称不匹配
  3. 网络配置或权限问题

解决方案

1. 确认 Ollama 服务可达性

在宿主机(非容器内)执行以下命令,验证 Ollama 是否正常运行:

curl http://localhost:11434

若返回 Ollama is running 则服务正常。否则重启 Ollama:

ollama serve

2. 确保 Docker 容器可访问宿主机服务

检查 Docker 运行命令中是否包含 --add-host=host.docker.internal:host-gateway(你的命令已包含此参数)。
此配置允许容器通过 host.docker.internal 访问宿主机服务。


3. 验证模型下载状态

在宿主机上运行以下命令,确认模型已正确下载:

 

ollama list

输出应包含已下载的模型(如 llama2):

 

NAME ID SIZE MODIFIED llama2 xxxxxxx 3.8GB 2 days ago


4. 在 Open WebUI 中连接 Ollama

登录 Open WebUI(http://localhost:3000),按以下步骤操作:

  1. 点击左下角 ⚙️ 设置
  2. 进入 Model Settings 标签页。
  3. 确保 Ollama Base URL 设置为:
     

    http://host.docker.internal:11434

    (关键配置!此地址让容器内通过 Docker 网络访问宿主机上的 Ollama)
  4. 点击 Save 保存配置。

5. 刷新并选择模型
  1. 返回 Open WebUI 主界面。
  2. 点击模型选择框(顶部中央),输入模型名称(如 llama2)。
  3. 若模型列表未更新,重启 Open WebUI 容器:
     

    BASH

    docker restart open-webui


常见问题排查

情况 1:Ollama API 不可达

在 Open WebUI 容器内执行以下命令,测试连接:

 

BASH

docker exec -it open-webui curl http://host.docker.internal:11434

若返回失败,检查:

  • 宿主机防火墙是否放行 11434 端口。
  • Docker 命令中是否缺少 --add-host 参数。
情况 2:模型名称不匹配

在 Open WebUI 中输入模型名称时,需与 ollama list 中的名称 完全一致(如区分大小写)。

情况 3:权限问题

若使用 Linux,确保 Docker 容器有权限访问宿主机网络:

 

BASH

sudo setenforce 0 # 临时关闭 SELinux(仅测试用)


完整调试步骤

  1. 查看容器日志

     

    BASH

    docker logs open-webui

    检查是否有类似 Error connecting to Ollama API 的错误。

  2. 手动触发模型加载
    在 Open WebUI 容器内执行:

     

    BASH

    docker exec -it open-webui curl http://host.docker.internal:11434/api/tags

    应返回已下载的模型列表。


通过以上步骤,Open WebUI 应能正确识别 Ollama 模型。若问题仍存在,请提供 docker logs open-webui 的输出内容。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值