文 / Suyog Gupta 与 Mingxing Tan
数十年来,正如摩尔定律所述,通过缩小每个芯片内的晶体管尺寸,计算机处理器的性能每隔几年便可提升一倍。随着缩小晶体管尺寸的难度愈来愈大,业界开始将重点聚焦于开发针对特定领域的架构(如硬件加速器),以继续提升计算能力。机器学习领域尤为如此,人们致力于为神经网络加速构建专门的架构。讽刺的是,这些架构虽已在数据中心以及边缘计算平台稳步发展,但是很少有神经网络会特定优化,以充分利用这些底层硬件。
今天,我们高兴地宣布推出 EfficientNet-EdgeTPU,这是一系列源自 EfficientNets 的图像分类模块,经过自定义,可在 Google 的 Edge TPU(一个高能效的硬件加速器,开发者可通过 Coral Dev Board 和 USB 加速器使用)上运行,发挥最佳性能。通过此类模块自定义,Edge TPU 不仅可以提供实时图像分类性能,同时可以实现堪比数据中心中大尺寸计算密集型模型所能提供的精度。
注:EfficientNet-EdgeTPU
https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet/edgetpu
使用 AutoML 为 Edge TPU 自定义 EfficientNets
经证明,EfficientNets 能够在图像分类任务中取得 SOTA(State Of The Art) 精度,同时大幅缩减模型大小,降低计算复杂性。为了构建专为利用 Edge TPU 的加速器架构而设计的 EfficientNets,我们调用了 AutoML MNAS 框架,并使用在 Edge TPU 上高效执行的构件块扩增了 EfficientNet 的初始神经网络架构搜索空间(下文详述)。我们还构建并集成了一个“延迟时间预测器”模块,