DeepSeek-R1华为卡300i Duo环境搭建&推理测试

引子

前文已经写了不少DeepSeek相关的文章,感兴趣的童鞋可以移步(DeepSeek-R1环境搭建&推理测试_搭建深度求索环境-CSDN博客基于Ollama的win10环境下DeepSeek安装测试_win10 ollama deepseek-CSDN博客)。在N卡上的操作,应该已经展示的比较全面了。今年过年期间,华为很快就宣布适配DeepSeek-R1,刚好,手上有几张华为300i Duo卡,有资源部署。OK,让我们开始吧。

一、模型介绍

呃,DeepSeek就不用介绍了吧,哈哈哈

二、模型部署

1、修改模型里的config.json比如模型路径为:/home/aicc/modelscope/deepseek/distill-32b

里面的文件如下:修改torch_dtype(由bfloat16改成float16):

2、启动docker

docker run -it -d --net=host --name mindie_rc3_zzq --privileged=true --device=/dev/davinci_manager --device=/dev/hisi_hdc --device=/dev/devmm_svm  --device=/dev/davinci4   --device=/dev/davinci5 -v /usr/local/Ascend/driver:/usr/local/Ascend/driver   -v /usr/local/sbin:/usr/local/sbin   -v /home/aicc/:/home/aicc bf6b7812c595 bash

进到下面路径:

docker exec -it -u 0 mindie_rc3_zzq bashcd /usr/local/Ascend/mindie/latest/mindie-service/conf

3、修改ip和端口号,检查httpsEnabled是否是false

vi config.json

4、配置大模型路径、name和分配对应的芯片

5、修改对应的context参数,最好按照下面的格式修改:

6、启动服务:

cd /usr/local/Ascend/mindie/latest/mindie-service/./bin/mindieservice_daemon 

通过watch -n 1 npu-smi info命令查看当前的npu程序,看看是否加载顺利

三、推理测试

用curl命令本地访问大模型,看是否有返回结果

curl --location --request POST 'http://xxx.xx.x.xxx:xxxx/v1/chat/completions' --header 'Content-Type: application/json' --data-raw '{

    "model": "ds_7b",

    "messages": [{

        "role": "user",

        "content": "You are a helpful assistant."

    }],

    "max_tokens": 20

}'

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

要养家的程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值