有几天没有在Linux服务器上使用ollama运行大模型了。今天登录使用时,遇到了下面这个错误。这里将这个小问题的原因和解决方式简单记录下,以供参详。
(open-webui) [root@master ~]# ollama run qwen2:0.5b-instruct-q5_K_M
Error: [0] server cpu not listed in available servers map[]
首先,从网上找了几个博客经验,比如:修改环境变量, 或者重启服务:
sudo systemctl stop ollama
sudo service ollama restart
sudo systemctl start ollama
sudo service ollama status
发现问题依然存在,无法解决!
后来直接运行ollama serve,结果如下:
(open-webui) [root@master ~]# ollama serve
Error: listen tcp 127.0.0.1:11434: bind: address already in use
从提示来看, 应该是11434 这个端口已经被服务绑定了。
既然如此,那就继续看下,是哪个服务正在使用了这个端口。
(open-webui) [root@master ~]# netstat -anp | grep 11434
tcp 0 0 127.0.0.1:11434 0.0.0.0:* LISTEN 107691/ollama
看起来是107691 这个进程在使用该端口,我们进一步确认下这个进程:
<
最低0.47元/天 解锁文章
20

被折叠的 条评论
为什么被折叠?



