《Ollama 11434 端口:风险隐患与安全加固》:此文为AI自动生成

《Ollama 11434端口:风险隐患与安全加固》:此文为AI自动生成


Ollama 11434指的是开源跨平台大模型工具Ollama默认使用的端口号。以下是关于它的相关信息:

  1. 风险隐患

    • 未授权访问:Ollama在本地部署时,默认开放11434端口且无任何鉴权机制,攻击者无需认证即可调用模型服务、获取模型信息,甚至通过恶意指令删除模型文件。
    • 数据泄露:攻击者可通过特定接口如/api/show访问并提取模型数据,引发数据泄露风险,还可获取模型的license等敏感信息及其他已部署模型的相关敏感数据。
    • 算力盗用:大量服务器因未采取安全防护措施,其11434端口被恶意用户占用计算资源,导致服务中断。
    • 历史漏洞利用:攻击者可利用Ollama框架的历史漏洞,如CVE-2024-39720等,直接调用模型接口实施数据投毒、参数窃取、恶意文件上传及关键组件删除等操作。
  2. 安全加固建议

    • 限制监听范围:仅允许11434端口本地访问,并验证端口状态。
    • 配置防火墙规则:对公网接口实施双向端口过滤,阻断11434端口的出入站流量。
    • 实施多层认证与访问控制:启用API密钥管理,定期更换密钥并限制调用频率。部署IP白名单或零信任架构,仅授权可信设备访问。
    • 禁用危险操作接口:禁用push/delete/pull等,并限制chat接口的调用频率以防DDoS攻击。
    • 历史漏洞修复:及时更新Ollama至安全版本,修复已知安全漏洞。
  3. 端口绑定与访问相关操作

    • 默认绑定情况:Ollama默认绑定在127.0.0.1的11434端口,意味着默认只能在本地访问。
    • 修改绑定地址以实现网络访问:在MacOS上,可使用launchctl setenv ollama_host “0.0.0.0” ,并重启Ollama应用;在Linux上,可编辑systemd服务,在[service] 部分添加environment=“ollama_host=0.0.0.0” ,然后执行systemctl daemon-reload和systemctl restart ollama;在Windows上,可在系统环境变量中编辑或创建ollama_host变量并设置为0.0.0.0。
    • 通过代理服务器访问:以Nginx为例,可配置server { listen 80; server_name example.com; location / { proxy_pass http://localhost:11434; proxy_set_header host localhost:11434; } } ,将请求转发到本地Ollama服务器。
    • 利用隧道工具访问:如使用ngrok,可执行ngrok http 11434 --host-header=“localhost:11434” 来创建安全隧道实现远程访问;使用Cloudflare tunnel,可执行cloudflared tunnel --url http://localhost:11434 --http-host-header=“localhost:11434” 进行设置。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

空云风语

人工智能,深度学习,神经网络

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值