论文类型:综述
摘要:
论文把AI和edge computation的结合分成两个类型:
-
AI for edge:使用AI优化边缘计算中遇到的关键问题(IEC)
-
AI on edge:AI任务在边端协同计算,包括网络模型的构建、训练、推理(AIE)
论文在上述两个角度切入,介绍每个角度的核心概念和研究方向
优化目标:
Quality of Experience:
-
Performance
-
the ratio of successfully offloading - computation offloading problem
-
the service providers’ need-to-be-maximized revenue and needto-be-minimized hiring costs of Base Stations (BSs) - service placement problem
-
-
Cost:
-
computation cost(delay)
-
communication cost(latency)
-
energy cost
-
-
Privacy:
- privacy preservation(隐私保护)-Federated learning
-
Efficency
-
Reliability:系统可靠性。使用时不出故障。类似availablility(高可用性)
IEC已有工作:
-
Topology:
-
边缘节点的编排(OES):the deployment and installation of wireless telecom equipment and servers.
- 无人机调度与任务规划(UAVs):无人机相当于小型可动的边缘设备。通过ML、DL进行功耗预测、移动轨迹预测
-
无线网络(WN):
-
Data Acquisition:如何高效的从边缘设备中提取大量数据。多址、无线资源分配和信号编码/解码。不关注(太底层)
-
Network Planning:网络编排与管理。关注协议与中间件的管理。目前主要的工作方向为intelligent networking,利用AI技术构建智能无线通信机制。不关注(太底层)。
-
-
-
content:
-
Data Provisioning:数据配置。云端和边端的数据共享。
-
service provisioning:服务配置。目前主要工作为构建轻量级Qos(服务质量)感知的基于服务的框架方案。
-
service placement:服务卸载。可看作服务配置的一个部分。结合QoE将云端数据卸载到边端。引入RL进行卸载决策。
-
service composition:服务组合。基于用户QoE与mobile能耗,结合AI选择更有的服务组合。
-
service caching:服务缓存池。看作服务组合的一部分。设计缓存池来存储被频繁访问的数据和服务。多智能体研究。
-
-
service
-
computation offloading:计算卸载。从资源受限的移动端,将资源密集型的任务卸载到edge和cloud,并对各种计算和通信资源进行负载均衡。
-
利用李雅普诺夫优化技术动态地管理多用户多服务器边缘计算系统的无线电与计算资源。需要关注两篇论文。
-
“Qoe aware and cell capacity enhanced computation offloading for multi-server mobile edge computing systems with energy harvesting devices” (pdf)
-
“A mobilityaware cross-edge computation offloading framework for partitionable applications” (pdf)
-
-
利用DQN(Deep Q-newtwork,强化学习网络)进行计算卸载决策。其将计算卸载问题建模为马尔可夫决策过程(MDP)。需要重点关注两篇论文。
-
“Learningbased computation offloading for iot devices with energy harvesting” (pdf)
-
“Performance optimization in mobile-edge computing via deep reinforcement learning” (pdf)
-
-
-
user profile migration:用户画像(配置文件,私有数据,日志)的迁移问题
-
mobility management:移动性管理,与用户画像结合
-
AIE已有工作
-
framework design(框架设计):
-
model training
-
distributed training framework:
-
data splitting:目前最成功的工作是联邦学习。把训练任务分配给多个边缘端(各使用各自的训练数据),再把多个边缘段模型的梯度平均后用于数据中心网络的梯度下降。在过程中始终关注隐私保护和网络传输过程中的阻塞问题(优选大梯度)。
-
model splitting:这个感觉对数据的传输有很高的要求,毕竟某一份数据的梯度丢失了不会影响模型整体的梯度下降方向,但是一份数据的某一部分梯度消失,那么其他部分的梯度也没有用了。
-
-
knowledge distillation-based framework(基于知识蒸馏的训练框架):去中心化、中心化都有,研究方向是迁移学习任务的云边端协作
-
-
model inference
- model splitting framework
-
-
model adaptation(模型适配):基于已有的framework,提出更多有助于模型适配到edge端运行的优化方法。针对数据传输延时、计算延时进行优化。
-
model compression:模型压缩。模型层降维,剪枝,精度降级,组件共享(权重共享,卷积)
-
conditional computation:条件计算(dropout)
-
input filtering:数据离线预处理
-
early-exit:推理早退机制
-
Components Shutoff
-
result caching
-
-
Algorithm Asynchronization:联邦学习关注点
-
Thorough Decentralization:彻底的去中心化。区块链和博弈论知识。不关注。
-
-
processor acceleration:处理器硬件加速。不不关注。