根据搜索结果,Ollama的访问URL和相关配置信息如下:
-
Ollama API地址和端口: 默认情况下,Ollama绑定到
127.0.0.1
端口11434
。您可以通过设置OLLAMA_HOST
环境变量来更改绑定地址。 -
API端点:
- 用于生成文本的API端点是
/api/generate
,可以通过如下方式指定参数:curl http://localhost:11434/api/generate -d '{ "model": "llama2", "prompt": "为什么天空是蓝色的?", "options": { "num_ctx": 4096 } }'
- 用于聊天的API端点是
/api/chat
。
- 用于生成文本的API端点是
-
配置Ollama服务器: Ollama服务器可以通过环境变量进行配置。例如,在Mac上设置环境变量,使用
launchctl setenv
;在Linux上,通过systemctl edit ollama.service
编辑systemd服务;在Windows上,通过控制面板编辑系统环境变量。 -
公开Ollama: 如果您想要在网络上公开Ollama,可以通过设置
OLLAMA_HOST
环境变量来更改绑定地址。 -
使用代理服务器: Ollama运行一个HTTP服务器,可以通过代理服务器如Nginx进行公开。例如,使用Nginx配置如下:
server { listen 80; server_name example.com; # 替换为您的域名或IP location / { proxy_pass http://localhost:11434; proxy_set_header Host localhost:11434; } }
您也可以使用ngrok或Cloudflare Tunnel来访问Ollama。