我的情况:
ollama装在wsl中的Ubuntu上,RagFlow也部署在Ubuntu上,前期没有配置过环境变量,可能时这个原因导致两者连接不上
解决方案:
配置Ollama环境变量:
最初我配的是0.0.0.0:11434
(这里粗心搞了中文逗号,导致端口一直连不上)
下面重新总结一下要配置的东西
1、ollama.service
sudo vim /etc/systemd/system/ollama.service
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
#为了使更改生效,您需要重新加载systemd的配置。使用以下命令:
sudo systemctl daemon-reload
#最后,重启服务以应用更改:
sudo systemctl restart ollama
2、防火墙
如果服务器有防火墙(如iptables或ufw),确保开放了Ollama使用的端口(默认为11434)。您可以使用以下命令开放端口:
sudo iptables -I INPUT -p tcp --dport 11434 -j ACCEPT
或者,如果您使用的是ufw:
sudo ufw allow 11434/tcp
RagFlow连接Ollama我踩过的坑总结
1、关于模型的Url
关于基础URL的几点说明:
(1)Ollama和RAGFlow在同一台机器上运行,基本URL:
http://host.docker.internal:11434
(2)Ollama和RAGFlow在同一台机器上运行,并且Ollama或者RAGFLOW在Docker中,基本URL:
http://host.docker.internal:11434
(3)Ollama在与RAGFlow不同的机器上运行,基本URL:
http://<IP_OF_OLLAMA_MACHINE>:11434
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://blog.csdn.net/weixin_47782004/article/details/144144363
2、关于模型名称
模型名称复制,不要手动打
:latest
也是包含在模型名称里的!!!!!!