低配云服务器Windows2016搭建DeepSeek本地AI模型

低配云服务器Windows2016搭建DeepSeek本地AI模型

前言:以最低的成本搭建一个属于自己的AI测试模型,不需要用到独立显卡,机器只需要2核心4G内存80G硬盘空间即可。因为DeepSeek拥堵注册不了API-key,所以用Ollama的deepseek-r1:1.5b。Anythingllm操作环境。

1. 环境准备

云服务器:确保已购买并配置好Windows Server 2016。
Python:安装 Python 3.8+。
远程连接工具:如RDP或SSH。
模型文件:下载所需的模型文件。
https://anythingllm.com/
https://ollama.com/
https://www.deepseek.com/
在这里插入图片描述

2.下载安装AnythingLLM

https://anythingllm.com/
安装后,首次访问时,系统会提示你进行初始化设置。
按照提示设置管理员账号和密码即可,其它默认就行,后面再具体设置。
在这里插入图片描述

3. 下载安装Ollama

https://ollama.com/
解压并安装。

### DeepSeek-R1 的本地部署教程 要在本地环境中成功搭建并运行 DeepSeek-R1 AI 模型,需遵循以下方法和注意事项: #### 1. 准备工作 在开始之前,需要确认具备必要的软硬件条件以及相关工具链的支持。以下是具体准备事项: - **硬件需求**: 部署 DeepSeek-R1 要求较高的计算能力,尤其是对于完整的 671B 参数版本。推荐至少备 NVIDIA RTX 3090 或更高性能显卡[^3]。 - **软件依赖**: 安装 Python (建议版本 >= 3.8),同时确保已安装 PyTorch 和 Transformers 库。可以通过 pip 进行安装: ```bash pip install torch transformers ``` #### 2. 获取模型文件 DeepSeek 提供了多种参数规模的模型变体,包括但不限于原始的大规模版本及其蒸馏后的轻量化版本。用户可以根据实际需求选择适合自己的模型。 - 对于完整版模型,访问官方仓库获取最新发布的信息,并按照指引完成下载操作[^1]。 - 如果倾向于更高效的解决方案,则可以考虑采用经过优化处理过的较小尺寸版本,例如 `DeepSeek-R1-Distill-Qwen-7B`[^4]。该版本不仅保留了一定程度上的表现力,还显著降了存储空间占用率与运算复杂度。 #### 3. 使用 Ollama 工具简化流程 为了进一步降技术门槛,许多开发者推荐利用开源项目 Ollama 来管理整个过程中的各个环节。通过它能够轻松实现从网络上拉取目标镜像直至最终启动服务端口监听等一系列动作[^5]。 - 安装 Ollama 并验证其正常运作状态; - 执行命令以加载指定名称下的预构建包(如 deepseek-r1)至本地缓存目录下等待后续调用; ```bash ollama pull deepseek/r1 ``` #### 4. 测试功能是否完好无损 最后一步便是检验当前设置能否满足预期用途场景的要求。打开浏览器输入相应 URL 地址即可进入交互界面尝试提问解答等功能测试环节[^2]。 --- 以上即为关于如何在个人电脑或者其他私有服务器上面独立完成 DeepSeek-R1 的全部步骤说明文档内容摘要整理而成的结果展示形式之一而已;当然还有更多高级定制选项可供探索实践学习过程中不断积累经验成长进步!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值