深度学习基础——端云协同视觉应用部署

本文探讨了AI技术在移动设备上的应用受限问题,介绍了端-边-云协同的概念,如何通过端侧推理框架和迁移学习降低延迟并保护隐私。此外,还涉及联邦学习在分布式学习中的角色,尤其是其在个性化和安全性方面的解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

        随着AI技术的流行和物联网(Internet of Things,loT)设备的普及,Al技术广泛应用于移动设备。Al技术严重依赖于大数据和算力,然而移动设备端一般数据量较少且计算资源有限,因此,
Al技术在端侧的应用受到了极大限制。为了解决这一问题,“端-边-云”协同的解决方法应运而生。

端边云概念

  • “端”是终端设备,如手机、可穿戴设备、各类传感器、摄像头等
  • “边”是云计算的边缘侧,分为基础设施边缘和设备边缘,如基站、边缘智能路由器等
  • “云”是传统云计算的中心节点,是边缘计算的管控端,如云服务器集群

端边云协同思想

        利用端侧设备和边缘服务器更接近Al计算数据源的优势,降低推理时延和传输成本,同时,端侧和边缘设备可以在云上实现互联互动,这就是“端-边-云”协同的基本思想

        为解决端侧推理难的问题,如TensorFlow Lite、PyTorch Mobile、Paddle-Lite和MindSpore-Lite等端侧推理框架相继推出

端云迁移学习

        迁移学习指的是一个预训练的模型,通过特定的方式再次训练后,重新应用于另一个特定任务中,迁移学习包括增量训练、在线学习,以及加载部分权重的学习方式

端云迁移学习的工作流程:

1.根据端侧的任务选择预训练的模型,或训练新的模型。

2.云侧将模型下发到端侧。

3.端侧基于本地数据对模型进行微调。

4.端侧使用微调后的模型进行推理。

        联邦学习是一种分布式学习技术,2016年由谷歌公司率先提出,随后,杨强等人对联邦学习进行了系统地研究并提出了许多方法和对应框架。
        联邦学习通常基于联邦平均(梯度聚合)联合多个端侧设备,基于差分隐私、同态加密、安全聚合等方法实现隐私保护,并通过梯度压缩等方法提高计算通信比。
        利用联邦元学习、联邦增量训练等技术,保持端侧模型个性化。
        通过元学习、共识算法、恶意样本检测等技术,规避恶意攻击和不可控因素

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

牛哥带你学代码

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值