本地部署DeepSeek-R1 14B/32B

本机配置参考

i5 13600kf + RTX4060ti 16G

1. Ollama 的setup.exe文件

Ollama

2.将Ollama安装位置和拉取模型位置改至D盘或者E盘

参考:handy-ollama/docs/C3/2. 自定义模型存储位置.md at main · datawhalechina/handy-ollama · GitHub

上文里面的第一步和第二步有一点模糊,其他的都没问题:

第一步运行.\OllamaSetup.exe /DIR="D:\Ollama\Models"时需要在OllamaSetup.exe所在目录处cmd运行


第二步修改系统环境变量时,需要严格按照(1)先退出安装完毕的ollama,(2)再更改环境变量,(3)最后重新运行ollama的步骤操作。并且:

上面这一步中Models文件夹中对应的是原来Ollama再C:\Users\hp\.ollama的models文件夹中的内容,需要复制过去,并且删除原来的.ollama文件(可以备份到别的地方),总之就是原来Ollama存放模型的位置现在不能有东西。在以上操作都完成的前提下,再运行Ollama。

并且需要将Ollama.exe所在根目录添加到系统环境变量的Path中,否则报错。

3.使用Ollama部署DeepSeek R1

为了尽量部署参数尽可能多的版本,我部署的是轻量化处理后的GGUF格式的32B版本,从Hugging Face的镜像站拉取。

仓库:

https://huggingface.co/bartowski/DeepSeek-R1-Distill-Qwen-32B-GGUF

拉取命令(前两步完成后运行 ollama list测试前两步是否做对):

ollama run hf-mirror.com/bartowski/DeepSeek-R1-Distill-Qwen-32B-GGUF:Q4_K_M

4.让Ollama使用gpu调用大模型

Ollama系列---【ollama使用gpu运行大模型】 - 少年攻城狮 - 博客园 
实验室电脑在14B模型上可以跑满 32B模型上cpu/gpu 3,7开

5.网页中使用

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值