高效赋能AIoT生态链:
本教程以飞凌嵌入式RK3399平台为例,讲述主动模式的人工智能计算棒部署流程。
01
硬 件 平 台
平台:OK3399-C开发板
系统:Desktop
模块:TB-RK1808S0
环境准备:
飞凌OK3399-C开发板,RK1808人工智能计算棒(固件版本为V1.3.4),usb摄像头,摄像头和计算棒都插入OK3399-C开发板。
使用lsusb命令查看,如下(红框部分2207:0018即为RK1808人工智能计算棒):
输入命令如下:
02
概 述
AI计算区分为四个不同的象限,分别是云端训练、云端推理,边缘训练以及边缘推
理。
其中终端推理,几乎都集中在Arm架构生态上。AI神经网络计算目前可以通过CPU、GPU、DSP、NPU、FAGA等完成,但不同的硬件特性会导致效率和功耗的不同。其中NPU——嵌入式神经网络处理器采用“数据驱动并行计算”的架构,最擅长的就是视频、图像类的海量多媒体数据的处理,并且相比GPU等
具有更低的功耗。我司推出OK3399-CDesktop+RK1808(含3Tops算力NPU)的组合,在满足AI边缘计算的情况下,使得功耗大幅降低。
RK1808计算棒拥有主动模式和被动模式两种模式。
主动模式下,RK1808人工智能计算棒是一个专用AI应用模块。
RK1808人工智能计算棒作为主动设备,RK1808人工智能计算棒内部默认已安装rknn-toolkit和rknn-api,上位机(也称宿主机)无需安装rknn-toolkit和rknn-api,模型及算法固化在RK1808人工智能计算棒中,OK3399-C通过USB口向计算棒输入数据(例如图片和视频流),RK1808人工智能计算棒自动完成数据的前处理、推理、后处理,然后把处理结果通过USB口输出给OK3399-C。
为了方便用户通过USB口传输数据,RK1808人工智能计算棒会把USB口虚拟成网卡等标准设备,用户只需通过标准设备接口的操作(例如网络的socket编程)即可完成对RK1808人工智能计算棒数据的输入和输出。
细节如下:
1. RK1808计算棒插入上位机后,会被虚拟成网卡设备;
2. 上位机OK3399-C进行虚拟网卡配置,配置IP为192.168.180.1,保证上位机和1808中间的网络连接正常;
3. 计算棒默认IP为192.168.180.8ÿ