Doker+Ollama 报错 Error: llama runner process has terminated 解决方案

目前Docker+Ollama 是一个AI本地化部署最常见的组合之一,但现两者也有一些冲突设置。

问题表现:ollama run 模型 时候报错

Error: llama runner process has terminated: GGML_ASSERT(tensor->op == GGML_OP_UNARY) failed

ip的11434端口依然在运行“Ollama is running”

问题所在:docker desktop 升级到4.41.0所致

最新的Docker Desktop(4.41.0,2025-04-28)引入Model Runner(llama等dll),导致与Ollama冲突

  • Docker Model Runner is now available on x86 Windows machines with NVIDIA GPUs.
  • You can now push models to Docker Hub with Docker Model Runner.
  • Added support for Docker Model Runner's model management and chat interface in Docker Desktop for Mac and Windows (on hardware supporting Docker Model Runner). Users can now view, interact with, and manage local AI models through a new dedicated interface.
  • ……


 

解决方案:

将C:\Program Files\Docker\Docker\resources\bin文件夹下的ggml-base.dll文件改名,如加个.old后缀,至此问题可以得到有效解决!

有可能后续一段时间docker Desktop升级后都要如此处理,来解决与Ollama两者冲突问题。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值