【论文阅读】当深度强化学习遇到联邦学习:5G超密集网络中多接入边缘计算的智能多时间尺度资源管理

文章探讨了如何结合深度强化学习(DRL)和联邦学习(FL),在5G超密集网络的多接入边缘计算中实现智能多时间尺度资源管理。研究目标包括高效利用系统资源、动态低成本调度、保护隐私和安全。计算卸载模型涉及本地处理、边缘服务器及设备间协作。文章采用了双时间刻度的DQN算法,T1处理服务放置,T2处理卸载决策和资源分配。
摘要由CSDN通过智能技术生成

@article{yu2020deep,
title={When deep reinforcement learning meets federated learning: Intelligent multitimescale resource management for multiaccess edge computing in 5G ultradense network},
author={Yu, Shuai and Chen, Xu and Zhou, Zhi and Gong, Xiaowen and Wu, Di},
journal={IEEE Internet of Things Journal},
volume={8},
number={4},
pages={2238–2251},
year={2020},
publisher={IEEE}
}

《When Deep Reinforcement Learning Meets Federated Learning: Intelligent Multitimescale Resource Management for Multiaccess Edge Computing in 5G Ultradense Network》当深度强化学习遇到联邦学习:5G超密集网络中多接入边缘计算的智能多时间尺度资源管理IEEE INTERNET OF THINGS JOURNAL一区

问题描述

研究目标

  1. 充分利用系统资源:边缘服务器分配各种系统资源(例如,计算、通信、存储和服务)来处理卸载的部分;
  2. 动态和低成本调度:服务缓存放置策略、计算卸载需要实时性以及低开销资源分配;
  3. 隐私和安全保护:服务在设备之间的迁移会导致许多安全和隐私问题。

解决方案

系统模型

在这里插入图片描述
本文讨论的问题在上图一个蜂窝内进行研究。
在这里插入图片描述

任务模型

任务之间存在也来关系由d的脚标表示。
在这里插入图片描述

计算卸载模型

卸载分为在本地、边缘服务器和其他设备。
在这里插入图片描述
在这里插入图片描述

算法设计

本文使用到了两时间刻度的DQN,DQN的简单介绍如下,参考的博客见图片水印。
在这里插入图片描述
T1服务放置为慢时间刻度,T2卸载决策和资源分配为快时间刻度。
在这里插入图片描述
下图为个人理解的整体算法套用过程,可能和原文有出入,仅供参考,以原作者为主。
在这里插入图片描述
实验部分不在此是赘述,感兴趣可以阅读原文。

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

各可

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值