顶会论文笔记:联邦学习——ATPFL: Automatic Trajectory Prediction Model Design under Federated Learning Framework

ATPFL: Automatic Trajectory Prediction Model Design under Federated Learning Framework

【ATPFL帮助用户联合多源轨迹数据集,自动设计和训练强大的TP轨迹预测模型】

论文链接: link

论文结构

Abstract
1. Introduction
2. Related Works
3. Our Approach
4. Experiments
5. Conclusion and Future Works

一、摘要核心

背景介绍:
好:
轨迹预测模型(TP)在计算机视觉和机器人技术领域取得了很大的成功

不好:
但是它的架构和训练方案的设计需要繁重的人工工作和领域知识,对普通用户来说并不友好。
现有的工作忽略了联邦学习场景,没有充分利用具有丰富实际场景的分布式多源数据集来学习更强大的TP模型。

文章亮点:
弥补了上述缺陷,提出ATPFL来帮助用户联合多源轨迹数据集,来自动设计和训练一个强大的TP模型。

文章思想:
先通过分析和总结现有的工作,建立一个有效的TP搜索空间;

然后基于TP搜索空间的特点,设计了一个关系-序列-感知的搜索策略,实现了TP模型的自动设计;

最后,找到合适的联邦训练方法,分别支持FL框架下的TP模型搜索和最终模型训练,确保了搜索效率和最终的模型性能。

贡献:
大量的实验结果表明,ATPFL可以帮助用户获得性能良好的TP模型,比现有的在单源数据集上训练的TP模型获得更好的结果。

二、Introduction

1. 问题:TP数据孤岛

用来获得TP数据的设备分散在不同的地区,由于隐私保护,数据不能共享,这给现存的TP工作带来了限制。

2. 解决方式

引入联邦学习框架,来联合多个数据源,用一种分布式的和隐私保护的方式,合作获得一个更鲁棒和通用的TP模型。

3. 上述方式的两大挑战

① 在FL框架下设计TP模型是困难的。需要繁重的手工工作和领域知识。
② 适用于TP模型的FL方法尚未被研究。

4. 本文的目标

解决上述挑战,并提出ATPFL算法(结合了自动机器学习和联邦学习)。

① 解决第一个挑战:
设计一个适用于TP领域的自动机器学习算法,建立一个高效的TP领域搜索图空间。

利用GNN和RNN,设计一种关系-序列-感知的策略,来有效地探索TP搜索空间。

② 解决第二个挑战:
确定了一种具有快速收敛性的方法,来支持在AutoML中对TP候选模型的快速评估,从而保证了ATPFL的搜索效率。

用最高效的联邦学习训练方法,训练由ATPFL发现的最优TP模型,从而进一步提高ATPFL的最终性能。

5. 主要贡献

① 知识上,为TP区域的操作构建了一个详细的知识图

② 新颖性,打破了数据孤岛和专业限制

③ 效率上,设计的搜索策略、和选择的联邦训练方法,都非常适合TP区域,并有助于获得更强大的TP模型。

二、Related Works

1. 轨迹预测模型(TP模型)

(1)作用:预测人类未来的轨迹
(2)介绍TP模型的发展历史

2. 联邦训练方法

(1)联邦学习:训练一个基于分布在多个客户端上的数据集的高质量集中式模型。

(2)联邦学习的几种方法:
FedAvg:在每个客户端使用本地SGD更新,使用非独立同分布数据从客户端子集构建全局模型数据

Per-FedAvg:更加个性化。允许每个客户端使用其局部数据集,基于全局模型执行一个梯度更新

pFedMe:进一步提高性能。允许每个客户端使用任何优化方法来进行多步更新,而不会过多地偏离全局模型参数

(3)之前的工作忽视了FL在TP模型上的特点。本文旨在填补空白 ,确定TP模型的联邦训练方法,确保ATPFL在FL框架下的搜索效率和最终性能。

3. 神经结构搜索(NAS)算法

(1)自动搜索良好的神经结构,分为三种:
基于强化学习的方法 RL-based
基于进化算法的方法 EA-based
基于梯度的方法 gradient-based

(2)都是为CNN或GNN分类模型而设计的,它们无法解决TP操作之间有价值的连接,以进一步提高最终性能。本文旨在填补空白,设计一种更适合TP区域的NAS解决方案,实现高效、自动的TP模型设计。

三、Our Approach

设计了AutoML算法来实现TP模型的自动设计,确定联邦训练方法来指导ATPFL在FL框架下有效有效地工作。

1. TP模型的自动设计

(1)搜索空间

利用现有的TP模型设计经验,来构建一个有效的TP搜索空间

① TP搜索空间的特点

TP搜索空间中的关联:
R1:时间关联
搜索空间中的每个操作只对应于TP模型设计的一个阶段
在这里插入图片描述
IPM→FExM→FEnM→FExMadd→FEnMadd
→FFM→PPS→OC→LF→TM→LR→OF

R2: 限制关联
由于特殊要求,某些操作可能无法配合某些操作来构建有效的TP模型。

R3:技术关联
有些操作可能会应用相同类型的神经结构或技术。

② 关系-序列-感知策略

我们的战略的总体框架
在这里插入图片描述
Part 1:基于嵌入式学习的GNN

先使用GNN从TP搜索空间中的关系的信息中学习每个操作的有效嵌入表示。将搜索空间中的操作视为节点,并将r1-r3变换成三种不同类型的边 来连接相关的操作对,从而构造一个异构图来表示操作之间的关系。

然后,引入FAGCN(一个采用自门控机制的GCN),通过自适应集成相关的相邻信息,自动学习节点之间的关联,获得高级节点特征。
(自适应学习是因为 不同类型的邻居节点可能会对目标操作节点的最终嵌入做出不同的贡献。)

搜索空间中每个操作的嵌入式学习公式:
在这里插入图片描述

Part 2:Mask RNN优化器

利用RNN、异构图和学习到的高级操作嵌入,依次有效地获得最优有效的TP模型设计方案。

步骤:
将所选操作o1∼t=(o1,…,ot)依次嵌入RNN,以提取历史操作序列的有效特征。根据特征 预测每个下一步操作都是最优的 可能性。

**缺点:**由于不知道操作之间的R2限制性关系,可能会推荐无效的TP模型设计方案。

改进方案:
(1)思想:构造一个Mask向量,以屏蔽无效的下一步操作。
(2)具体操作:从St+1中识别出o1∼t的R2邻居节点,将它们的掩码值设置为0,而将其他值保持为1。
(3)因此,RNN可以过滤掉有效的操作选项,并更有效地获得次级最佳操作

这种强化策略可以通过最大化预期收益,来有效地更新模型的权重,指导搜索策略推荐更好的TP模型。

2. TP模型的联合训练

ATPFL的最优模型搜索阶段,通常需要对许多TP模型进行评估,并且需要一种收敛速度快的联邦训练方法。

① 三种联邦训练方法
给定一个分布式的和跨客户端非共享的数据集D = {D1,……,Dc},用联邦训练方法优化全局模型的权重w。
在这里插入图片描述

Fed-Avg 将局部训练数据集上的损失fi(w),直接视为Fi(w)
在这里插入图片描述

Per-FedAvg 使用个性化模型获得Fi(w)
在这里插入图片描述

pFedMe 在全局权重w的指导下,生成更灵活的个性化权重ϑi,以衡量Fi (w)
在这里插入图片描述
② 三种方法的特点

不同联邦训练方法在TP模型和联邦TP数据集上的性能曲线:
在这里插入图片描述

(1)FedAvg在早期训练阶段覆盖最快,也取得了最好的最终表现。
(2)pFedMe和Per-FedAvg在收敛速度和联邦性能方面都不突出,因此不适合我们的ATPFL算法。
(3)这些发现表明,强大的TP模型依赖于丰富的数据源,而个性化的训练方法更注重本地数据,但在TP领域并没有太大的帮助。

四、Experiments

研究ATPFL的性能。
分析联邦训练对TP模型的重要性;
AutoML算法部分与现有的AutoML算法进行比较;
消融实验来分析ATPFL设计的感知关系序列搜索策略。

1. 实验设置

① 数据集
为了评估我们的方法在FL框架下的性能,我们通过平等分布式轨迹数据的两个公开数据集 来构建一个联邦TP数据集D:ETH和 UCY,提供给20个客户。

对于每个客户端,我们分别保留其60%、20%、20%的本地数据集作为训练集、验证集和测试集。

② 评估指标
平均位移误差(ADE)
最终位移误差(FDE)

在这里插入图片描述

在测试集上的用ADE/FDE,比较他们在FL框架下的表现
在这里插入图片描述
③ Baselines
(1)比较ATPFL和两种流行的Auto-ML搜索策略:

RL搜索策略:结合递归神经网络控制器,同时基于EA的搜索策略进行多目标优化

随机搜索:在AutoML中常用的baseline。

(2)检验关系序列感知策略在TP模型和FL框架下的性能:

将ATPFL中的关系-序列-感知策略替换为这三种搜索策略,以检验它们在。

(3)用4个最先进的人类发明的TP模型为baseline,展示在FL框架下自动TP模型设计的重要性。

④ 实施细节
嵌入大小和隐藏大小被设置为100。

RNN优化器用Adam优化器进行训练,学习率为3.5e-4。

对于每个TP候选模型,我们使用FedAvg训练为5个epoch。选择验证集上获得最高联邦性能的TP模型,并使用FedAvg训练500个epoch。

用AutoML算法进行比较,控制每个AutoML算法的运行时间相同。

2. 性能评估

在FL框架下的4种AutoML算法、4种人工设计的TP模型下的性能:
在这里插入图片描述
在这里插入图片描述
图5可视化由ATPFL算法搜索的TP模型:
在这里插入图片描述

上面两个图表示,在联邦TP数据集上,ATPFL超过了其他的AutoML算法,在相同的搜索时间内发现了更强大的TP模型。
(因为考虑了操作间的关系避免了无用的评估)

表2的第二、三部分表示,在FL框架下,由AutoML算法发现的TP模型通常优于现有的人工发明的TP模型。
(因为在FL框架下实现TP模型自动设计,大大减少了人类专家的劳动力)

与非联邦训练方法相比,联邦训练方法,特别是FedAvg,可以获得更强大的TP模型。

3. 消融实验

关系-序列-感知搜索策略的两个核心组件:基于嵌入方法的GNN和the masked RNN优化器

进一步研究:使用了以下两种变体,观察对ATPFL算法性能的影响

① ATPFL without mask:忽略了操作之间的限制关系
② ATPFL without GCN and mask:忽略了搜索空间中操作之间的多重关系,并且不应用GNN来提取各种操作的高级特征。

实验结果:
在这里插入图片描述
ATPFL的性能是最好的。

因为ATPFL without mask中生成了大量的无效设计方案,证明了考虑操作之间的限制性关系的重要性。

因为ATPFL without gcn and mask 不能自适应地聚合高度相关操作中的信息,提取搜索空间中每个操作的高级特征,证明了考虑多重操作关系和使用GCN的意义和必要性。

五、Conclusion and Future Works

总结:
在TP区域结合了AutoML和FL技术,并提出了ATPFL来帮助用户联合私有和多源轨迹数据集,以自动设计和训练强大的TP模型。

优势:
第一个TP的工作,同时打破了数据孤岛和技术上的限制。

所设计的搜索策略和所选择的联邦训练方法,取得了良好的效果。

未来的工作:
将努力进一步丰富我们的搜索空间,并设计一个更有效的搜索策略来进一步提高ATPFL的性能。

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值