【推荐系统】Multi-gate Mixture-of-Experts(MMoE)

Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts

论文链接

论文笔记

摘要

为什么提出

  • 多任务学习旨在构建单个模型来同时学习多个目标和任务。

  • 但是,通常任务之间的关系会极大地影响多任务模型的预测质量。

  • 因此,学习task-specific objectives和inter-task relationships之间的权衡也非常重要。

It is therefore important to study the modeling tradeoffs between task-specific objectives and inter-task relationships.

怎么做?

Multi-gate Mixture-of-Experts(MMoE) 能够清晰地从数据中学习任务之间的关系:

  • 将Mixture-of-Experts(MoE)的结构应用于多任务学习中
  • 在所有任务共享expert submodels的同时,通过训练gating network来优化每一个任务。

结果如何?

  • 实验表明在任务相关性比较弱的时候,MMoE会表现的更好。
  • 同时能够提升模型的可训练性:an additional trainability benefit

一、引言

实际上,多任务学习模型的表现并不总是一定会优于单任务模型:

  • 许多DNN-based multi-task learning models会对数据的分布、任务之间的关系等因素特别敏感。
  • 源于不同任务之间的固有的冲突事实上会对于至少一部分任务造成不利的影响,尤其当模型的参数在各个任务中被广泛共享的时候。

现有的解决方法:

  • 基于一个特定的数据生成假设前提去探究多任务学习中任务的区别,并且依据任务区别的程度(based on how different the tasks are)去提出建议 -> 真实的数据具有极为复杂的模式,很难去明确地衡量任务之间的区别并依此去应用这些建议
  • 也有不需要给出明确的任务区别程度的方法,但是为了适应不同的任务,往往带来更多的模型参数 -> 在资源有限的情况下,计算的成本是难以接受的

MMoE怎么样:

  • MMoE对于任务之间的关系进行明确地建模,并且学习任务特定的函数去平衡共享的表达
  • MMoE能够在不添加大量新的参数的情况下让参数进行自动分配以去捕捉shared task information以及task-specific information。

MMoE explicitly models the task relationshipds and learns task-specific functionalities to leverage shared representations.

It allows parameters to be automatically allocated to capture either shared task information or task-specific inofrmation, avoiding the need of adding many new parameters per task.

MMoE结构概述:

在这里插入图片描述

  • 基于Shared-Bottom multi-task DNN structure(如上图 ( a ) (a) (a)): Shared-Bottom: input -> bottom layers (shared) -> tower network (每个任务各自的)
  • 如上图 ( c ) (c) (c),MMoE有一组bottom networks, 每一个叫做一个expert, 在本文中, expert network是一个feed-forward network
  • 然后为每个任务引入一个gating network。Gating networks 的输入是input features, 输出是softmax gates,即各个expert的权重
  • 加权之后的expert结果被输入到task-specific 的tower networks
  • 这样的话,不同任务的gating networks能够学到不同的专家混合方式,以此捕捉到任务之间的关系
  • MMoE更容易训练并且能够收敛到一个更好的loss,因为近来有研究发现modulation和gating机制能够提升训练非凸深度神经网络的可训练性。

核心:

  1. 清晰地描述任务之间的关系:通过modulation和gating networks,模型能够自动调整学习shared information以及task-specific information之间的参数化过程。
  2. 同时提升模型的表达力以及可训练性。

MMoE explicitly models task relationships. Through modulation and gating networks, our model autoatically ajusts parameterization between modeling shared information and modeling task-specific information.

MMoE improves both model expressiveness and trainability.

二、文献综述

2.1 Multi-task Learning in DNNs

shared-bottom model struccture:

  • 所有任务共享bottom hidden layers
  • 减少过拟合的风险
  • 但是会遭受由于任务的区分带来的优化冲突,因为所有任务在shared-bottom layers使用相同的参数集

为task-specific 参数增加不同类型的约束:

  • cross-stitch network, tensor factorization model
  • 有更多task-specific的参数来解决由于task differences带来的更新shared参数时的冲突,但是参数极大地增加,需要更多的训练数据

2.2 Ensemble of Subnets & Mixture of Experts

Eigen 和 Shazeer将mixture-of-experts model转变为基本的building blocks (MoE layer),并且把它stack到一个DNN中:

  • 在训练和测试的时候,MOE layer会依据这一层的输入来选择subnets(experts)

PathNet:

  • 是一个巨大的神经网络,每一层都有multiple layers和multiple submodules

三、基本知识

3.1 Shared-bottom Multi-task Model

在这里插入图片描述

  • 给定 K K K个任务,模型由一个shared-bottom network (由 f f f 表达) 和 K K K 个 tower networks h k h^k hk 组成,其中 k = 1 , 2 , ⋯   , K k=1,2,\cdots,K k=1,2,,K

  • shared-bottom network跟在输入层后面,tower networks建立在shared-bottom 的输出之上,最后由每个tower产生各自任务的输出 y k y_k yk

  • 对于任务 k k k,模型可以表达为:

y k = h k ( f ( x ) ) y_k=h^k(f(x)) yk=hk(f(x))

四、Modeling Approaches

4.1 Mixture-of-Experts

最初的Mixture-of-Experts (MoE) Model 可以由下式表达:
y = ∑ i = 1 n g ( x ) i f i ( x ) y=\sum_{i=1}^{n}g(x)_if_i(x) y=i=1ng(x)ifi(x)
其中:

  • ∑ i = 1 n g ( x ) i = 1 \sum_{i=1}^{n}g(x)_i=1 i=1ng(x)i=1, g ( x ) i g(x)_i g(x)i 表示expert f i f_i fi 的权重
  • f i , i = 1 , ⋯   , n f_i, i=1,\cdots,n fi,i=1,,n n n n 个expert networs
  • 表示一个用于综合所有专家结果的gating network
  • 换句话说,gating network g g g 基于input产生 n n n个experts上的一个分布,而最后的结果是所有experts输出的weighted sum。

MoE Layer:

  • MoE layer和MOE model有着相同的结构,只不过是将前一层的输出作为输入,输出则会继续传到下一层。整个模型以端到端的方式训练
  • MoE layer最开始提出的主要目的是进行conditional computation, 也就是说only parts of a network are active on a per-example basis
  • 对于每个输入的example,模型能够通过gating network基于input选择a subset of experts。
4.2 Multi-gate Mixture-of-Experts

在这里插入图片描述

  • 本文提出一个新的MoE模型用于捕捉任务之间的区别,并且相对于shared-bottom多任务模型,本模型不会带来参数的极大增加
  • 新的模型叫做Multi-gate Mixture-of-Experts(MMoE) model, 其主要思想是用MoE layer来替代share bottom network f f f
  • 此外,对于每个任务 k k k,都加入一个单独的gating network g k g^k gk
  • 具体地,任务 k k k的输出是:

y k = h k ( f k ( x ) ) y_k = h^k(f^k(x)) yk=hk(fk(x))

f k ( x ) = ∑ i = 1 n g k ( x ) i f i ( x ) f^k(x)=\sum_{i=1}^{n}g^k(x)_if_i(x) fk(x)=i=1ngk(x)ifi(x)

​ gating networks就是一个简单加上softmax layer的线性变换:
g k ( x ) = s o f t m a x ( W g k x ) g^k(x)=softmax(W_{gk}x) gk(x)=softmax(Wgkx)
​ 其中 W g k ∈ R n × d W_{gk}\in R^{n\times d} WgkRn×d n n n为experts的个数, d d d 为特征维度。

参数维度分析

github - Keras MMoE

  • d : d: d: number of input features

  • h : h: h: number of units per export

  • n : n: n: number of experts

  • k : k: k: number of tasks

    expert network: W n × h × d W_{n\times h \times d} Wn×h×d

    gating network: W k × n × d W_{k\times n \times d} Wk×n×d

expert networks:

n个expert networks的输出 y ∈ R n × h y\in R^{n\times h} yRn×h
y = f ( x ) = W n × h × d x + b n × h ( i = 1 , … , n ) y=f(x)=W_{n\times h \times d}x + b_{n\times h} \quad \quad(i=1,\dots,n) y=f(x)=Wn×h×dx+bn×h(i=1,,n)

k个gating networks的输出 z ∈ R k × n z \in R^{k\times n} zRk×n
z = g ( x ) = s o f t m a x ( W k × n × d x + b k × n ) z= g(x)=softmax(W_{k\times n \times d}x + b_{k\times n}) z=g(x)=softmax(Wk×n×dx+bk×n)

在这里插入图片描述

五、MMoE on Synthetic Data

5.1 Performance on Data with Different Task Correlations

在这里插入图片描述

  • 所有的模型,任务相关性越高,表现越好
  • 随着任务相关性的差别造成的MMoE model表现的差异要小于OMoE model以及Shared-Bottom model,这种趋势在比较MMoE model和OMoE model的时候尤为明显:
    • 在极端的情况下,当两个任务完全一样的时候,MMoE和OMoE model的表现基本没有差别
    • 但是随着两个任务相关性的减弱,OMoE model的表现出现明显的下降,而对MMoE model仅有微弱的影响。可见,在低相关性的情况下,gate network要因任务而异是非常重要的
  • OMoE 和 MMoE model在所有情境下都优于Shared-Bottom model
5.2 Trainability

近来,有一些研究发现gated RNN models(比如LSTM, GRU) 之所以比普通的RNN表现要好,是因为它们更容易去训练,而不是有更好的模型能力。

我们希望对于MMoE的trainability进行深一步地探讨。

通过使用不同的random seeds生成相同分布下的数据以及不同的模型初始化,下图描述了MMoE, OMoE, Shared-Bottom最终的loss分布直方图。

在这里插入图片描述

可以发现:

  • Shared-Bottom model 有更大的variances, 也就是说Shared-Bottom in general have much more poor quality local minima
  • task correlation =1时,OMoE和MMoE健壮性相当,但是当任务相关性下降,OMoE的健壮性出现显著下滑,可见,multi-gate structure在resolve bad local minima caused by the confict from task difference是有效的

结论

  • MMoE能够对于任务之间的关系明确地建模
  • gating networks是轻量的,而expert networks是共享的,因此并不会引入造成computation cost
  • 更容易训练
  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值