Tengine 一个注重性能和兼容性的AI框架

本文对比了TensorFlow Lite与Tengine在Arm嵌入式设备上的性能,展示了Tengine在A53处理器上对MobileNetV1模型的显著性能优势,以及其优秀的模型兼容性,支持直接加载多种模型文件,无需预转换。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

https://www.toutiao.com/a6643578312285225479/

 

2019-01-07 17:01:00

前段时间,Tensorflow官方提供的本地编译的方式在Arm嵌入式设备运行Tensorflow Lite,我在11月中旬,使用本地编译的方式编译二进制的Label_image, 对RK3288 以及树莓派上做了性能的测试。

Tengine 一个注重性能和兼容性的AI框架

A17与A53 MobilenNet V1(fp) 性能对比

从性能测试的结果来看,物美价平的树莓派其实性能并不弱。但是今天我想介绍一个我新发现并让我眼前一亮的框架Tengine.

Tengine 显著的优点是性能和兼容性,使用Tengine框架后运行性能可以得到大幅度的提升。

下图为MobileNet V1_1.0_224 浮点型模型单张图片分类在单核A53的性能对比。我们可以看到Tengine 有显著的优势。

Tengine 一个注重性能和兼容性的AI框架

MobileNet V1_1.0_224 浮点型模型单张图片分类在单核A53的性能对比

Tengine 框架有着非常好的模型兼容性,支持直接加载caffe/mxnet/tensorflow模型文件,而不需要事先转换,而且用户仅需编译就可以利用Tengine的加速Caffe和Tensorflow性能。

Tengine 不仅可以让分类网络的性能大大提升,连大家众所周知的MobileNet-SSD 网络也能提升它的性能。很多人都觉得树莓派的性能不足以hold住检测网络,但是如果用Tengine框架就可以做到。

即使是开源版是每一帧的检测耗时仅为 286.136ms,足以看出Tengine的性能非常强大。

Tengine 一个注重性能和兼容性的AI框架

开源版上每一帧的检测耗时仅为 286.136ms

Tengine 一个注重性能和兼容性的AI框架

GPU用半浮点精度float16的检测结果准确无误

有兴趣的朋友可以看一下Tengine GitHub的主页,最近还推出了跑MobileNet分类网络的Android App, 手机端就可以使用AI 程序。

https://github.com/OAID/Tengine/?tt010701

https://github.com/OAID/Tengine-app/?tt010701


关于OPEN AI LAB

OPEN AI LAB(开放智能实验室)于2016年12月成立,由Arm中国联合产业伙伴发起,致力于推动芯片、硬件、算法软件整个产业链的深度合作,加速人工智能产业化应用部署和应用场景边界拓展,为最终实现万物智能贡献力量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值