使用 Learn2Compress 定制移动端机器学习模型

Google发布Learn2Compress技术,可在TensorFlow Lite中自动生成适用于移动端的高效模型,通过删除不重要权重、量化技术、联合训练等方法,减少模型大小和提高推理速度,同时保持高精度。此技术将应用于ML Kit,帮助开发者轻松创建优化的设备模型。
摘要由CSDN通过智能技术生成

文 / Google Expander 团队高级职员兼研究科学家 Sujith Ravi


成功的深度学习模型往往需要大量的计算资源、内存和动力来训练和运行,一旦您想让它们能在移动设备和物联网设备上表现良好,往往就会碰壁了。通过移动端机器学习,您可以直接在设备上运行推理,无论连接状况如何,都可以保护数据隐私,不受任何访问权限的制约。移动端的 ML 系统,例如 MobileNets 和 ProjectionNets,通过优化模型效率来解决移动设备上的资源瓶颈。但是,如果您想为您的个人移动应用程序培训自己定制的设备型号,那该怎么办呢?


在 Google I / O 开发者年会上,我们发布了 ML Kit 工具包,让所有移动开发人员都可以使用机器学习。由我们的研究团队开发的 “Learn2Compress” 技术提供了自动模型压缩服务,这是 ML 工具包的核心功能之一,也将很快上线。 Learn2Compress 可以在 TensorFlow Lite 中实现自定义的移动端深度学习模型,可在移动设备上高效运行,开发人员无需担心内存和速度优化问题。我们很高兴能够很快在 ML Kit 工具包中使用针对图像分类的 Learn2Compress。 Learn2Compress 最初将面向少数开发人员开放,并在未来几个月内提供给更广泛的受众。 如果您有兴趣使用此功能来构建自己的模型,可以在此处注册。

注:此处链接

https://docs.google.com/forms/d/e/1FAIpQLSd7Uzx6eepXeF5osByifFsBT_L3BJOymIEjG9uz1wa51Fl9dA/viewform



工作原理

Learn2Compress 融合了之前研究工作中介绍的学习框架,如 ProjectionNet,并结合了几种最先进的技术来压缩神经网络模型。 它将用户提供的大型

评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值