一、前置条件:
1、本地已经安装部署ollama。
2、已通过ollama安装类开源大模型,如:qwen2.5-coder:14b。
二、问题描述:
在需要暴露本地能力API到公网,但ollama本身没有提供安全认证功能(可能有,我没有找到),暴露api后任何人都可以访问,风险太大。之前一直想着用ollama本身的功能实现api的安全暴露,找了半天没找到。所以转换思路用了以下方式。
三、解决方式:
通过研究发现,一般现成的能力调用工具key的传递方式为:header传递,如下图(idea中的codeGPT插件设置界面):
因此可以通过nginx转发本地的ollama地址并配置header拦截,打码的地方就是自定义的API key。
总结
通过nginx的方式实现ollama API 一定程度(专业度不高,不敢说一定安全,但对于我这种小白来说够用了)的安全暴露。