研华正式发布国产化昇腾AI Box与Deepseek R1模型部署全流程!

随着深度求索(DeepSeek)大模型的发布引发行业热议,研华科技基于昇腾Atlas平台边缘AI Box MIC-ATL3S正式发布与Deepseek R1模型的部署流程。该平台依托昇腾芯片的强大异构计算能力,结合研华边缘AI Box高可靠特点,通过模型轻量化、算子适配等技术实现大模型边缘端部署。

硬件部署/

CPUAtlas 310P

10个DaVinciV200 AI core,主频最高达1.08GHz
16个64位TaishanV200M处理器核,核主频最高1.9GHz
8个DaVinciV200 Vector core,主频最高达1GHz

内存24G LPDDR4

AI算力176TOPS INT8

操作系统OpenEuler

模型DeepSeek-R1

推理模型

根据MIC-ATL3S硬件规格,我们选取了DeepSeek-R1-Distill-Qwen-1.5B这个精度和对硬件配置要求相对平衡的蒸馏模型进行适配和部署。

图片

部署步骤

昇腾310P + openEuler22.03部署deepseek-R1

1.     安装驱动包以及CANN

前往昇腾社区获当前芯片版本的驱动、FW、以及CANN(昇腾异构计算架构)

driver:Ascend-hdk-310p-npu-driver_xxxxx_linux-aarch64_chip-enable.run

Firmware:Ascend-hdk-310p-npu-firmware_xxxxx_chip-enable.run

CANN:Ascend-cann-toolkit_xxxxx_linux-aarch64.run

2.     安装依赖组件

3.     安装mindspore (昇思模型框架)

4.     DeepSeek-R1模型拉取

拉取模型指令,以1.5B为例

yum install git-lfs -y

git lfs install

git clone https://ai.gitee.com/hf-models/DeepSeek-R1-Distill-Qwen-1.5B

图片

克隆完成示例如下,包含HF完整的仓库:

图片

5.     模型转换

下载后的模型为safetensors格式,还不能直接使用,先用transformers转换为ONNX格式,再使用atc转换为OM(昇腾)格式才能使用。

创建python脚本将safetensors格式转换为ONNX格式,最终转换为OM格式。

图片

执行脚本后会生成对应模型文件,生成对应格式模型文件 执行:

Python3 convert.py

./convert.sh

图片

最后,需要用一个简单的python脚本去做互动窗口,运行指令:python3 deepseek_r1.py

图片

示例:

图片

图片

总结:目前研华进行MIC-ATL3S适配更多Deepseek模型,以及与生态伙伴展开具体应用场景测试,后续会持续公布研华边缘AI平台产品的部署&测试内容,敬请关注。

研华昇腾310系列边缘AI平台

研华基于昇腾Atlas 310系列平台开发出三款不同形态的边缘AI产品:工业标准化AI模组、边缘AI开发套件以及边缘AI盒子。此系列产品算力高达176 Tops,专注于工业场景下的细分应用。同时,在软件方面,研华聚焦底层开发,定期更新SDK套件以满足客户的开发需求,并自主研发工业领域远程部署和管理工具。

图片

如您对研华基于昇腾Atlas 310系列平台产品感兴趣,可私信沟通哦。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Advantech_

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值