ollama拉取模型报错解决方案!

今天在用ollama拉取新的模型时 出错了

pulling mainfest
Error: EOF

开始以为清理一下缓存就可以了,后来发现不行。

然后重启了一下ollama服务就解决了。

停止ollama服务:

sudo systemctl stop ollama

运行一下之前安装好的模型检查是否已停止:

ollama run llama3

启动ollama服务:

sudo systemctl start ollama

重启服务后重新拉取模型可以正常拉取了。

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值