多任务学习中的数据分布问题(一)

本文探讨了多任务学习中的数据分布问题,包括经典非神经网络的多任务学习、联邦学习与经典多任务学习的数据分布对比,以及基于神经网络的多任务学习中不同数据分布的场景,如相同输入数据与不同损失、不同输入数据与不同损失、不同输入数据与相同损失的情况,并分析了这些情况下的模型构建和优化目标。
摘要由CSDN通过智能技术生成

今天这个专题源于我在做分布式多任务学习实验时在选取数据集的时候的疑惑,以下我们讨论多任务学习中(尤其是在分布式的环境下)如何选择数据集和定义任务。

多任务学习最初的定义是:"多任务学习是一种归纳迁移机制,基本目标是提高泛化性能。多任务学习通过相关任务训练信号中的领域特定信息来提高泛化能力,利用共享表示采用并行训练的方法学习多个任务"。然而其具体实现手段却有许多(如基于神经网络的和不基于神经网络的,这也是容易让人糊涂的地方),但是不管如何,其关键点——共享表示是核心。

1.经典(非神经网络的)多任务学习

经典(非神经网络的)多任务学习我们已经在博文《分布式多任务学习论文阅读(一):多任务学习速览 》中详细讨论,此处不再赘述。在这种模式中给定\(t\)个学习任务\(\{\mathcal{T}_t\}_{t=1}^T\),每个任务各对应一个数据集\(\mathcal{D}_t = {\{(\bm{x}_{ti}, y_{ti})}_{i=1}^{m_t}\}\)(其中\(\bm{x_{ti}} \in \mathbb{R}^{d}\)\(y_{ti} \in \mathbb{R}\)),然后根据根据\(T\)个任务的训练集学习\(T\)个函

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值