AI新浪潮:截止2022年,全球74%的计算将来自端侧

本文探讨了边缘计算与云计算的互补关系,强调边缘计算在数据隐私、时效性和负载平衡上的优势。边缘计算允许在本地处理用户数据,增强隐私保护,同时减少数据传输延迟,提高服务响应速度。在云端服务不足时,端侧计算能提供额外的负载支持。然而,端侧计算面临的挑战包括计算资源限制和设备多样性。未来,寻找适应各种端设备的普适性模型训练模式将是关键问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

根据Gartner的报告,今天91%的数据是在中心化的数据存储中心做计算。但是,截止到2022年,全世界74%的数据将在端侧进行分析和计算。

有一种误解是边缘计算会取代云计算,相反,边缘+云计算的结合会是未来的主趋势,边缘计算甚至会进一步带动云计算的发展。把规模的数据计算一定是在云端处理,而与直接数据产生者相关的部分计算会被分配到端。接下来就具体分析下端侧计算的一些优势:

1.数据隐私性

 

个性化推荐等业务越来越被普遍应用到广大APP中,其本质是对用户行为数据的收集,并在云端进行统一分析。这种AI服务在给人们带来便利的同时,也带来了数据安全问题,很多国家开始出台法令限制用户数据的收集。边缘计算的引入可以允许用户数据不上传,只在用户自己的手机端侧进行分析。这样既能保证数据隐私性,又能同样满足个性化推荐等业务需求。


2.时效性

目前大部分AI服务需要采集数据到云端的数据存储中心进行统一建模,然后将模型部署成Restful服务供终端调用。这种模式因为数据传输的带宽限制以及网络通信的时延限制,往往会影响服务的时效性。如果数据分析建模等服务发生在端侧,就避免了大量的数据传输和网络时延等问题。

3.负载平衡

传统的AI service完全依赖于云端服务,因为每个终端侧的请求有波峰、波谷的差别,在请求波峰阶段可能会受限于云端服务侧性能,这个时候就需要做一些负载平衡,端侧服务就可以很好地解决这个问题。当云端服务能力不足的时候,端侧可以做一些弥补。一些极端情况,比如突然断网,云端服务完全失效,这时候因为端侧的模型服务还在,也可以暂时解决一部分AI模型inference的问题。


Edge AI的一些问题:


1. 计算力问题

众所周知,分布式计算(俗称云计算)主要解决的就是计算力问题,而将计算任务下发到端侧,可能会受限于端侧的内存、磁盘大小的问题,导致只有小规模的模型产出。

2.端设备多样性问题

端侧设备各式各样,比如手机、手表、音箱、汽车。里面使用的操作系统也极为丰富,可能有Anroid、Linux、IOS。在框架层可能是TF或者PyTorch。底层计算芯片也有各种版本,比如英伟达就为不同的终端定制了不同类型的芯片设备,比如为汽车定制的NVDIA Drive Orin。

如何在这么多设备的变量因素之下,找到一条普适性的模型训练模式,是比较有挑战的。


 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值