[SNPE]pb文件转dlc的一些问题

人工神经网络在AI中具有举足轻重的地位,除了找到最好的神经网络模型和训练数据集之外,人工神经网络的另一个挑战是如何在嵌入式设备上实现它,同时优化性能和功率效率。 使用云计算并不总是一个选项,尤其是当设备没有连接的时候。 在这种情况下,需要一个能够实时进行信号预处理和执行神经网络的平台,需要最低功耗,尤其是在一个电池设备上运行的时候。

通过使用不同的工具(如 python 脚本) ,可以训练一个数据格式的网络(在 Caffe 和 Tensorflow),然后使用Snapdragon 神经处理引擎的SDK将其转换为可在Snapdragon 平台上运行的神经网络。

概述
高通的Snapdragon 平台和Snapdragon 神经处理引擎SDK是一个非常好的选择,可以在低功耗和小规模设备上创建一个定制的神经网络。 Snapdragon NPE 是为了给开发者提供工具,使他们能够轻松地将智能从云端迁移到边缘设备。

Snapdragon NPE 为开发者提供软件工具,深度神经网络上的工作负载在移动和其他边缘物联网(IoT)设备上,由 Snapdragon 处理器提供软件工具。 开发者可以为所需的用户体验选择最佳的 Snapdragon 核心—— Qualcomm Kryo CPU、 Qualcomm Adreno GPU 或Hexagon DSP。

本文探讨了利用 Matlab 工具在 Snapdragon 平台上开发和实现神经网络,并主要关注 ONNX 格式。 同时,我们还研究了 Snapdragon 平台如何通过使用 Snapdragon 核心和 SNPE SDK 提供的工具来帮助减少电力和处理时间。
原文链接:https://blog.csdn.net/wireless_com/article/details/83965703

1、snpe_bench.py

这个脚本运行一个DLC神经网络然后收集一些benchmark表现。

选项:

必须参数:-c CONFIG_FILE, 配置文件路径

可选参数:

-o 输出文件夹

-v 使用设备这里的ID而不是配置文件里提供的ID。不能和-a选项一起使用。

-r 远程的主机名或者IP

-a 在所有相连的设备上运行

-t 确定目标操作系统类型,可选项['android','android-arm320llvm','android-aarch64-11vm','le','le64_gcc4.9','le_gcc4.8hf']

-d 开启debug日志

-s 设置运行之间的休眠秒数

-b 默认float可设置为tf8exact0

-p 设置benchmark操作模式(balanced,default,sustained_high_performance,high_performance,power_saver,system_settings)

-l 大概就是设置输出的信息的详细程度(off,basic,detailed)默认是basic

-json 生成json输出

 

benchmarking

概述:

将网络运行在目标设备上(android或者linuxembedded),计算时间和内存消耗指标。

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值