原因
在对问题进行分析后,我认为原因是之前为了在服务器上下载模型,我设置了启动时自动配置的网络代理。然而,ollama在运行时采用了该代理配置,而不是默认的API URL(“http://localhost:11434”)。因此,导致了ollama._types.ResponseError错误的发生。
问题
ollama._types.ResponseError
方法
临时取消代理
临时取消代理,在命令行输入
unset http_proxy
unset https_proxy
彻底取消代理
我这里是因为在~/.bashrc文件中写入了
export http_proxy=http://10.xx.xx.xx:xxxx
export https_proxy=http://10.xx.xx.xx:xxxx
所以我想永久解决这个问题也可