Error: something went wrong, please see the ollama server logs for details

Error: something went wrong, please see the ollama server logs for details

环境:linux-centos,拥抱一下大模型。

咳咳~先说解决方法。

  • 这个问题着实是让人摸不着头脑,各个网站还搜不到解决方法,github上一哥们的回答才解决了我这个问题。得记录下,方便大家以后能够快速解决这个问题。
  • https://github.com/ollama/ollama/blob/main/docs/api.md#list-running-models,去ollamagithub教程文档的api.md这一部分,找对应的curl命令,在终端执行curl命令即可。
    在这里插入图片描述
  • 感兴趣的话可以看下下面的解决过程。困扰了段时间。希望有帮助哦,记得点个赞👍,评论交流哦。

背景

  1. 使用ollama部署大模型,其中包含自己下载的量化模型,以及从ollama官方库中pull的模型。
  2. 基于服务器映射出来的端口,使用chatbox来实现windows界面端的大模型交互。
  3. ollama部署大模型(量化的)可参考其他同学博客。eg:https://zhuanlan.zhihu.com/p/694331045
  4. 我的ollama、大模型、chatbox都配置好之后,我想再新增两个大模型,但是在服务器上执行ollama list和ollama ps等消息都报错:Error: something went wrong, please see the ollama server logs for details,一头雾水,日志也查不到,一点返回消息也没有。

问题解决

  1. 翻了翻国内的文章,没找到,搬运下。
  2. 翻了翻github等网站,找到了两个对该问题有启发的回答:
    • 其一:
      – 大概意思是ollama在等你的请求,因为ollama的各种指令都算的上是api的调用。比如pull就是api/pull,执行命令后没反应就说明你没请求过来。
    • 其二:
      – 大概意思就是不在服务端执行命令,通过curl的方式调用api。
  3. 我在另一台机器上同样部署了下ollama和大模型,发现ollama list等命令能用,命令执行后ollama服务端也能返回消息。在这里插入图片描述
    但是在前述提到的机器上就不行,运行ollama list等命令时,直接报错,没有上图这种请求记录,但是在chatbox中就有请求记录发过来,ip是另一个ip,看着像windows端的,基本确定了在机器上运行命令行不通,试试api的方式,api请求命令时,ip和chatbox请求的ip时一样的,能请求通,赶紧api/create。问题解决。

接后续1

使用api方式创建模型
在这里插入图片描述
给的example中,很简单,像上下文窗口长度、temp等都没有,直接使用path参数即可,指向Modelfile的目录。

curl http://localhost:11434/api/create -d '{
    "name": "llama3-1-chinese",
    "path": "/pathofModelfile/Modelfile"
  }'

http://localhost:11434/可以换成你发起请求的ip:端口

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值