使用OrangePi KunPeng Pro部署AI模型

一、OrangePi Kunpeng Pro简介

OrangePi Kunpeng Pro是一款香橙派联合华为精心打造的高性能板卡,搭载了鲲鹏处理器,可提供8TOPS INT8计算能力,板卡设计很精致,板载资源也非常多:

  • 拥有以太网、Wi-Fi+蓝牙功能,提供多种可选择的网络接入方式。

  • 2个USB3.0 Host、1个支持USB3.0的Type-C接口:可接入鼠标、键盘、USB摄像头等设备,方便板卡操作。

  • 2个HDMI接口、1 个 MIPI DSI 2 Lane接口,提供两种显示方案。

  • 引出了40 pin 扩展口,可扩展UART、I2C、SPI、PWM 和 GPIO 等接口功能。

    板卡完整接口如下图所示:

    image-20240527211819105

板卡扩展出的功能很多,能够满足很多应用场景和行业的开发需求,本文将描述使用OrangePi Kunpeng Pro来部署AI大模型,记录分析模型运行期间板卡的状态和模型运行效果。

二、环境搭建

(1)首先取出板卡,为板卡接入一个HDMI显示屏、一个无线蓝牙鼠标、一个有线键盘,接着接通电源,完成后如下图所示:

image-20240527212859863

(2)随后板卡将自动启动运行openEuler操作系统,接着我们进入终端:

2024-05-25 22-03-42屏幕截图

(3)查看下存储容量:

image-20240527213430653

从上图可知目前可用容量很大,可满足小量级离线模型的存储。

板卡运行openEuler非常流畅,使用体验感非常好。

(4)选择网络接入方式,本文使用Wifi接入。

(5)更改CPU为AI CPU

image-20240527223943524

从上图中可知目前板卡有3个AI CPU和1个control CPU

接着就进行模型运行环境搭建和模型部署了。

三、模型运行环境搭建
(1)下载Ollama用于启动并运行大型语言模型

由于在线下载Ollama速度较慢,故而使用手动方式安装Ollama,首先从下列地址下载Ollama:

https://ollama.com/download/ollama-linux-arm64

image-20240527215103559

完成后将其通过ssh方式传输到板卡。接着将其重名为ollama,便于命令操作,然后将ollama复制到/usr/bin目录中并赋予可执行权限:

sudo chmod +x /usr/bin/ollama
(2)配置ollama系统服务

使用以下命令创建ollama服务描述文件:

sudo touch /etc/systemd/system/ollama.service

并在文件中编辑如下内容:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target
(3)启动ollama服务

使用下述命令启动ollama服务:

sudo systemctl daemon-reload
sudo systemctl enable ollama
(4)启动ollama

使用下述命令启动ollama:

sudo systemctl start ollama
(5)查看ollama运行状态

使用如下命令查看ollama运行状态:

systemctl status ollama.service

image-20240527220228192

从上图可知目前ollama启动成功。

四、模型部署

通过上述第三小节的步骤后,Ollama模型运行环境就搭建完成,本小节将部署五个模型:1.8b的qwen、2b的gemma、3.8b的phi3、4b的qwen和7b的llama2,测试OrangePi Kunpeng Pro运行模型的实际效果。模型细节如下表所示:

序号模型参数描述
1qwen1.8bQwen是阿里云开发的大型语言模型,1.8b,1.1GB
2gemma2bGemma是由Google DeepMind构建的一系列轻量级的开放模型,大小1.7GB
3phi33.8bphi3是微软开发的开放AI模型系列,3.8b为Mini系列,大小2.4GB
4qwen4bQwen是阿里云开发的大型语言模型,4b,大小2.3GB
5llama27bLlama 2是由Meta平台公司发行的基础语言模型,大小3.8GB
(1)部署1.8b的qwen

使用ollama run qwen:1.8b部署1.8b的qwen模型:

image-20240527224132628

上述模型部署完成后,对其进行问答测试,如下图所示:

image-20240527224902634

效果:运行1.8b的qwen模型,CPU负载没有占满,进行问答测试,回答速度较快,效果很好!

(2)部署2b的gemma

使用ollama run gemma:2b部署2b的gemma模型:

image-20240527224616899

上述模型部署完成后,对其进行问答测试,如下图所示:

image-20240528211400092

效果:运行2b的gemma模型和运行1.8b的qwen模型效果相似,CPU负载同样没有占满,进行问答测试,回答速度快,效果好!

(3)部署3.8的phi3

使用ollama run phi3:3.8b部署3.8b的phi3模型:

image-20240527224701164

上述模型部署完成后,对其进行问答测试,如下图所示:

image-20240527224951824

效果:运行3.8b的phi3模型,进行问答测试,回答速度变慢了。

(4)部署4b的qwen

使用ollama run qwen:4b部署4b的qwen模型:

image-20240527224527759

上述模型部署完成后,对其进行问答测试,如下图所示:

image-20240527225033695

效果:运行4b的qwen模型,进行问答测试,回答问题速度明显变慢:计算生成答案的速度变慢,打印文字的速度也变慢了。

(5)部署7b的llama2

使用ollama run llama2:7b部署7b的llama2模型:

image-20240527224359131

上述模型部署完成后,对其进行问答测试,如下图所示:

image-20240527225127929

效果:运行7b的llama2模型,CPU满负载了,进行问答测试,回答问题速度也明显变得很慢:计算生成答案的速度变慢,打印文字的速度也变慢了。

五、实际效果

上述第四小节描述了运行五个模型的实际使用效果,本小节附上运行1.8b的qwen模型的效果,如下图所示:
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

(注:因gif图对视频有所处理,以实际运行效果为准!)

六、总结

OrangePi Kunpeng Pro板卡是一块拥有较高计算性能的板卡,本文使用该板卡部署了五个模型(以本文所描述模型为参考),对于1.8b和2b量级的模型来说运行效果还可以,体验较好;对于3.8b和4b量级的模型来说,体验感有所下降,一是计算生成答案的过程变长,二是文字输出存在断续;对于7b量级的模型,体验感更是降了一个层次,文字输出存在明显的断续了。

体验感是一个非理性的名词,因人而异,不同的场景和模型,不同的使用者都可能存在不同的体验,本文所有内容仅供参考和评测!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

iriczhao

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值