谷歌MnasNet:实现移动端机器学习模型的自动化

谷歌MnasNet:实现移动端机器学习模型的自动化

文章来源:ATYUN AI平台 

在智能手机领域,检测对象,分类图像和识别面部的应用程序并不是什么新鲜事;它们已经被Google Lens和Snapchat等应用推广,但普遍性无法替代质量,而大多数使用卷积神经网络的基础机器学习模型,往往会受到缓慢或不准确的影响。这是硬件约束限制的计算权衡。

尽管如此,谷歌的研究人员开发了一种AI模型选择方法,可以达到记录的速度和精度。

在一篇新论文“MnasNet: Platform-Aware Neural Architecture Search for Mobile”和博客文章中,该团队描述了一个自动化系统MnasNet,该系统从候选列表中识别理想的神经架构,并结合强化学习来考虑移动速度限制。它在特定设备上执行各种模型,在本研究中的例子为谷歌的Pixel,测量它们的真实性能,自动选择最好的一组。

“通过这种方式,我们可以直接衡量在现实世界中实现的目标,”研究人员在博客文章中写道,“鉴于每种类型的移动设备都有自己的软件和硬件特性,可能需要不同的架构才能做到最好在准确性和速度之间进行权衡。”

该系统由三部分组成:(1)循环神经网络驱动的控制器,用于学习和采样模型的架构;(2)训练器,用于构建和训练模型;(3)TensorFlow Lite驱动的推理引擎测量模型的速度。

谷歌MnasNet:实现移动端机器学习模型的自动化

该团队测试了ImageNet上的首选模型,由斯坦福和普林斯顿维护的图像数据库,以及上下文中的公共对象(COCO)对象识别数据集。结果显示,这些模型比最先进的移动模型MobileNetV2快1.5倍,比神经网络搜索系统NASNet快2.4倍。与此同时,在COCO上,Google的模型比MobileNet实现了“更高的准确性和更高的速度”,与SSD300模型相比,计算成本降低了35倍,这是研究人员的基准。

团队表示,“我们很高兴看到我们的自动化方法可以在多个复杂的移动视觉任务上实现最先进的性能,将来,我们计划在搜索空间中加入更多操作和优化,并将其应用于更多移动视觉任务,如语义分割。”

边缘和离线(与云托管相对)AI获得了大量的研究,特别是在移动领域。在6月份的2018年全球开发者大会期间,Apple推出了改进版的ML Core,它是iOS上的设备上机器学习框架。在谷歌I / O 2018上,谷歌宣布了ML Kit,这是一个软件开发套件,其中包含的工具可以更轻松地在应用程序中部署自定义TensorFlow Lite模型。

论文:arxiv.org/abs/1807.11626

本文转自ATYUN人工智能媒体平台,原文链接:谷歌MnasNet:实现移动端机器学习模型的自动化

更多推荐

Talla:通过内容感知为客户服务自动化提供首次呼叫解决方案

谷歌揭示了新的增强现实动画背后的AI技术

Facebook开发基于文本的冒险游戏,研究AI智能体的对话和行为

小i智慧学堂进复旦丨探讨AI智能服务体系运营与实践

欢迎关注ATYUN官方公众号,商务合作及内容投稿请联系邮箱:bd@atyun.com
欢迎关注ATYUN官方公众号,商务合作及内容投稿请联系邮箱:bd@atyun.com

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值