使用KTransformer部署DeepSeekR1-671B满血量化版+ OpenwebUI 及多GPU(多卡)适配教程(Ubuntu+256G+4090+Intel)

ktransformers 是针对预算低但是想跑 671B Deepseek推出的框架 ,是基于显卡 + CPU 混合推理方案。官方使用双 Xeon ® Gold 6454S(共 64 核)、1TB-D5 内存和 RTX 4090 24GB,实现 671B 4-bit 量化版每秒 13.69 个词令生成速度。ktransformers 采用 Intel AMX 指令扩展,prefill 速度提升明显。

我的环境:Intel 61332(40C)+ 256G D4 + 4090D4 + 2T SSD + 16T HDD \ Ubuntu22.04 \ CUDA12.6 \ Python3.11

注:截止25.2.21,官方目前支持的模型如下
在这里插入图片描述

其他版本装上去会乱码,我后面用的DeepSeek-R1-Q2_K_XS,读者需要根据最新版本的支持情况进行修改

1.预准备

具体步骤见 https://kvcache-ai.github.io/ktransformers/index.html
这里简单说一下:
首先需要CUDA12.1及以上,V0.3好像要12.5,尽量装最新吧

1.添加CUDA环境变量
vim ~/.bashrc ,末尾添加

# Adding CUDA to PATH
if [ -d "/usr/local/cuda/bin" ]; then
    export PATH=$PATH:/usr/local/cuda/bin
fi

if [ -d "/usr/local/cuda/lib64" ]; then
    export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64
    # Or you can add it to /etc/ld.so.conf and run ldconfig as root:
    # echo "/usr/local/cuda-12.x/lib64" | sudo tee -a /etc/ld.so.conf
    # sudo ldconfig
fi

if [ -d "/usr/local/cuda" ]; then
    export CUDA_PATH=$CUDA_PATH:/usr/local/cuda
fi

然后wq保存,退出

2.安装编译链

sudo apt-get update
sudo apt-get install build-essential cmake ninja-build

3.创建conda环境
conda安装教程自己去找一下,网上很多

conda create --name ktransformers python=3.11
conda activate ktra
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值