本地部署DeepSeek安全风险自查及安全加固方案

简要介绍

    随着人工智能技术的快速发展,AI大模型DeepSeek部署需求日益增长。然而,在享受AI技术带来便利的同时,我们也不能忽视其背后潜在的安全风险。

    近期有关DeepSeek本地部署存在安全风险事件的报道引发了关注,其中Ollama服务作为一个重要的开源框架,因其配置导致的安全风险受关注。本文将分析这一问题,并提供安全加固方案。

安全风险原因

什么是Ollama?

    Ollama是一个开源框架,用于快速部署和运行大型语言模型(LLM)。用户可以轻松、方便地在本地、公有云、私有云部署、运行AI模型。然而,这种便利性也带来了潜在的安全风险。

安全风险的核心问题

    有些部署Ollama服务将IP地址绑定到0.0.0.0地址,并开放TCP 11434端口。这意味着任何能够访问该IP地址的,都可以通过网络连接到你的模型。

攻击者可以利用以下方式,发现暴露在互联网上Ollama服务端口:

使用网络空间测绘、漏洞扫描、端口扫描工具等。

安全风险:暴露在互联网上Ollama服务端口

安全风险自查

方法一

检查Ollama启动时执行命令:

set OLLAMA_HOST=0.0.0.0

方法二

检查Ollama的config配置文件

"host":"0.0.0.0"

方法三

检查系统环境变量

OLLAMA_HOST

0.0.0.0

    提供以上三种方法,进行安全自查。如果发现host=0.0.0.0,即判定存在安全风险,需要做相关的安全加固。参考下文:

安全加固

方法一

修改IP地址

把Ollama host 地址改为本机或者内网IP地址,比如:127.0.0.1、192.168.x.x。

方法二

Windows操作系统

运行wf.msc

Windows Defender 防火墙

右键"入站规则" → "新建规则"

选择"端口" → TCP → 特定本地端口:11434

选择"阻止连接" → 应用到配置文件

方法三

Debian Ubuntu Kali 操作系统

使用 iptables

sudo iptables -A INPUT -p tcp --dport 11434 -j DROP

方法四

RedHat CentOS 操作系统

使用 firewall-cmd

sudo firewall-cmd --permanent --add-rich-rule='rule family="ipv4" port port="11434" protocol="tcp" reject'

sudo firewall-cmd --reload

    提供以上Windows系统和Linux系统相关方法,实现关闭11434服务端口,仅供参考。

    如果需要对特定IP地址开放11434服务,请自行编写相关命令。

总结

    通过实施以上安全加固措施,可以显著降低本地部署DeepSeek服务的安全风险,构建一个更加安全可靠的AI模型运行环境。以下是我个人的几点建议:

1、遵循最小化原则:仅开放必要的网络端口,并限制访问范围。

2、定期检查与更新:保持对Ollama版本的持续关注,即时更新版本。

3、多层防护策略:结合防火墙、IP白名单等手段,构建多层次安全防护体系。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

安全方案

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值