笔记
文章平均质量分 92
code120302
这个作者很懒,什么都没留下…
展开
-
无人机使能的边缘计算优化问题
系统中移动用户的数量M、移动用户的位置(x,y,0)、任务的CPU频率C、任务的数据量D都是已知的,而无人机数量N、无人机位置(X,Y,H)是未知的。上层负责优化UAV的部署,下层负责优化任务调度。在上层中,UAV的部署问题是一个可变长度的优化问题,在进化算法中引入一种新的编码机制,使得每个individual都有固定长度(2维,位置的x坐标和y坐标)个任务【疑问:资源的分配通过任务执行数来界定有一定偏颇,若任务种类相似可以这样定义,若任务种类不相似,任务大小的方差太大,对于资源的分配利用并非高效的】原创 2024-07-16 15:38:39 · 1094 阅读 · 0 评论 -
【强化学习】公平性Actor-Critic算法
公平性Actor-Critic算法原创 2024-05-07 20:04:26 · 942 阅读 · 0 评论 -
深度强化学习框架Acme【一】
Acme框架学习笔记原创 2024-05-04 22:11:25 · 708 阅读 · 0 评论 -
无线信道传输模型(LoS/ NLoS OMA/ NOMA)
无线信道传输模型原创 2024-04-26 16:10:57 · 2086 阅读 · 0 评论 -
无人机辅助任务卸载
论文笔记原创 2024-04-10 11:33:05 · 994 阅读 · 0 评论 -
DRL调参笔记
drl调参笔记原创 2024-02-05 20:54:16 · 834 阅读 · 0 评论 -
《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》阅读笔记
论文笔记原创 2023-12-10 15:54:47 · 1034 阅读 · 0 评论 -
《Joint Caching and Transmission in the Mobile Edge Network: An Multi-Agent Learning Approach》阅读笔记
比如如果在t时刻服务器e中缓存的文件为{1, 2, 3},agent采取的动作为删除文件1替换为文件4,那么t+1时刻服务器e中缓存的文件为{4, 2, 3}。caching network基于多智能体学习预测和存储用户感兴趣的文件,网络的输入为请求文件和用户接入信息,输出为缓存决策x,每个边缘服务器作为agent学习缓存策略。疑问:这里的奖励函数定义为边缘服务器与用户之间传输时延最小,若边缘服务器只缓存一个文件岂不是此时的传输时延最小,r最大吗?当a(t)=0时,说明请求的文件在缓存中,不进行替换。原创 2023-11-29 22:07:18 · 79 阅读 · 0 评论 -
贝叶斯学习自动机
step2:再次画出图像选择,得到随机变量x2 > x1, 选择arm2并获得了奖励,更新选择两个arm的Beta分布,估计arm2获得奖励的概率下降,agent选择arm1的概率变成0.5。step3:第三次选择中,x1 > x2,选择arm1并获得了奖励,更新选择两个arm的Beta分布,估计arm1获得奖励的概率上升,agent选择arm1的概率变成0.7。其中,一般用Beta分布作为先验分布。:对于伯努利分布,用Beta分布作为先验分布,通过贝叶斯推断后得到的后验分布依然时Beta分布的特性。原创 2023-11-23 23:12:24 · 68 阅读 · 0 评论 -
多智能体解决数据缓存
经验回放(Experience Replay)是强化学习中的一个技术,旨在改善学习的效率和稳定性。在实时与环境交互中获得的经验(状态、动作、奖励等)通常会被立即用于更新模型。这种做法可能非常低效和不稳定。经验回放通过存储这些经验到一个称为“经验回放缓冲区”的数据结构中,然后在训练过程中随机抽样以用于模型更新,从而解决了这一问题。固定边缘节点之间、边缘节点和数据中心之间的数据率。真实世界数据集MovieLens。原创 2023-11-17 21:56:52 · 66 阅读 · 1 评论 -
《Data Caching Optimization in the Edge Computing Environment》论文阅读笔记
阅读笔记原创 2023-11-10 10:16:44 · 113 阅读 · 1 评论 -
集合覆盖问题的模型与算法
集合覆盖问题的模型与算法原创 2023-11-08 09:20:31 · 3904 阅读 · 1 评论 -
边缘-云在AIGC领域的应用与发展
论文理解原创 2023-11-04 11:36:03 · 158 阅读 · 2 评论 -
马尔可夫决策过程详解
RL本质是互动学习,让智能体与外界环境进行交互,其目标是使得agent在与环境的交互中得到最大的累计reward,从而学习到自身动作的最优控制。RL模型中三个关键部分:(1) 状态(state):外界环境信息,状态体现环境的特征。(2) 动作(action):感知环境后采取的行为,动作的表现形式可以是离散的,也可以是连续的。(3) 奖励(reward):采取行动后获得的收益值,收益根据实际场景可以时正的也可以是负的。原创 2023-11-03 16:46:45 · 1139 阅读 · 2 评论 -
GAP问题近似算法
近似比:A是问题I的近似算法,OPTA是问题I的最优算法,则定义近似算法A的近似比率为:最小化问题的近似比:近似比率总是>=1,近似比越小,算法越好。相对误差界:若对于输入规模为n的问题,存在一个函数ϵ\epsilonϵ(n)使得:优化问题近似方案:把近似算法A的近似比满足如下条件:称为优化问题的近似方案。原创 2023-10-29 16:47:35 · 278 阅读 · 1 评论 -
《Mobility-Aware Computation Offloading in Edge Computing Using Machine Learning》 论文阅读笔记二
笔记2原创 2023-10-29 11:40:07 · 65 阅读 · 1 评论 -
《Mobility-Aware Computation Offloading in Edge Computing Using Machine Learning》 论文阅读笔记一
关于计算卸载的理论研究较为广泛,绝大部分将问题建模成为整数规划/混合整数规划问题等,通过采用凸优化理论,启发式算法,博弈论,排队论,马尔可夫决策,深度强化学习等方法进行近似求解。A[10 + 8].b = A[10].b + b3 = 6 + 4 = 10,A[10 + 8].p = A[10].p + p3 = 5 + 1 = 6,代价为18时,分配策略为app196、app143。其中,xi/yi为app的位置,md为迁移数据量,id为卸载数据量,w为计算所需指令数,p为所需处理速度,b为所需带宽。原创 2023-10-28 23:20:25 · 81 阅读 · 1 评论 -
Leetcode685 冗余连接II 题解思路及实现
LC685思路解读原创 2023-10-13 15:56:45 · 34 阅读 · 0 评论 -
《算力网络中高效算力资源度量方法》论文解读与实验复现
论文解读与思考原创 2023-09-23 17:10:30 · 768 阅读 · 6 评论 -
决策树之CART算法分类树原理及python实现
关于决策树中CART算法的理解与实现原创 2023-09-23 10:28:42 · 1747 阅读 · 1 评论 -
RPL协议仿真理解
利用cooja完成对rpl协议的仿真原创 2023-09-20 15:00:41 · 297 阅读 · 1 评论 -
《IETF 6TiSCH工业物联网研究综述:标准、关键技术与平台》阅读笔记
论文阅读笔记,增加对工业物联网协议栈的认识原创 2023-09-20 11:19:17 · 363 阅读 · 3 评论 -
《6G算力网络:体系架构与关键技术》阅读笔记
论文阅读笔记,增强对算力网络的认识原创 2023-09-20 09:30:06 · 500 阅读 · 1 评论