没显卡也能跑Deepseek-R1,还等什么,一起体验开源盛会吧

有台闲置的CentOS 8.5,正好给它装个Deepseek-R1,没有显卡故选用 llama.cpp,话不多说,上操作:
在这里插入图片描述

一.先克隆 llama.cpp 仓库并编译(😀用Ubuntu的有福了,有现成的可以直接下载llama-b4686-bin-ubuntu-x64.zip,跳过这步直接去看二)。

在这里插入图片描述

步骤

  1. 更新系统和安装依赖项
  2. 克隆 llama.cpp 仓库
  3. 编译 llama.cpp 项目

1. 更新系统和安装依赖项

首先,更新系统并安装必要的开发工具和依赖项。

sudo yum update -y
sudo yum groupinstall "Development Tools" -y
sudo yum install cmake git -y

2. 克隆 llama.cpp 仓库

使用 Git 克隆 llama.cpp 仓库。

git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp

3. 编译 llama.cpp 项目(挺慢的,需耐心等待)

创建构建目录并编译项目。

mkdir build
cd build
cd llama.cpp

# 4、编译llama.cpp,创建构建目录build,并进行静态编译
cmake -B build -DBUILD_SHARED_LIBS=OFF

#!!注意!! Linux自带的gcc版本比较低,我这是8.5版本,需要修一个编译配置文件:

vim ./ggml/src/CMakeLists.txt

在225行后面添加一行:link_libraries(stdc++fs)

加完效果如下,记得保存:
在这里插入图片描述

并行构建项目,这台机只有双核,故设置为 2 个并行任务

cmake --build build --config Release -j 2



在这里插入图片描述

4. 检查编译结果:

成功编译后的输出如下:
在这里插入图片描述

到这一步,这台CentOS 8.5 系统已经可以运行 llama.cpp了,只缺个大模型。

二.安装Deepseek-R1 蒸馏模型

安装huggingface_hub

python -m pip install -U huggingface_hub

下载R1-1.5B(qwen2蒸馏)模型文件

huggingface-cli download unsloth/DeepSeek-R1-Distill-Qwen-1.5B-GGUF DeepSeek-R1-Distill-Qwen-1.5B-Q4_K_M.gguf --local-dir .

跑起来

./build/bin/llama-server -m ./models/DeepSeek-R1-Distill-Qwen-1.5B-Q4_K_M.gguf

在这里插入图片描述

可以看到有28层网络。

三.AI Chat测试

#TODO
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

木法星人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值