要搭建一个免费的通过Ollama+DeepSeek-R1的公网测试环境,可以使用ngrok来实现内网穿透,将本地的Ollama服务暴露到公网。以下是具体步骤:
安装Ollama
- 访问Ollama官网,根据你的操作系统下载安装包,并按照说明进行安装。
- 安装完成后,在终端中运行命令验证安装。如果安装成功,命令行会显示Ollama的版本信息。
下载DeepSeek-R1模型
在终端中运行以下命令下载DeepSeek-R1模型:
ollama pull deepseek-r1:32
安装ngrok
- 注册账号:在ngrok官网注册一个账号,并获取身份验证令牌。
- 下载ngrok:根据操作系统下载对应的ngrok客户端。
- 进行身份验证:执行
ngrok authtoken <your_auth_token>
命令,将<your_auth_token>
替换为你在Ngrok网站上获得的身份验证令牌。
启动服务并穿透内网
- 启动Ollama服务:在终端中运行
ollama run deepseek-r1:32
启动DeepSeek-R1模型。 - 启动ngrok:假设Ollama默认启动服务的端口为11434,在终端中运行
ngrok http 11434
。ngrok会生成一个公共URL,用于访问本地的Ollama服务。
使用Python测试接口
你可以使用Python的requests
库来测试Ollama+DeepSeek-R1的接口。以下是一个简单的示例代码:
import requests
# ngrok生成的公网URL
ngrok_url = "https://<your_ngrok_url>.ngrok.io"
api_url = f"{ngrok_url}/api/chat"
# 构建请求数据
data = {
"model": "deepseek-r1:32",
"messages": [{"role": "user", "content": "你好"}]
}
# 发送POST请求
response = requests.post(api_url, json=data)
# 打印响应结果
print(response.json())
请将<your_ngrok_url>
替换为实际的ngrok生成的公网URL。
不过需要注意,ngrok的免费版本有一些限制,如随机生成的子域名、同时连接数的限制等。如果需要更多功能和定制选项,可能需要考虑升级到付费版本。同时,ngrok仅建议用于开发和测试目的,不建议在生产环境中使用。