独家 | 最新NLP架构的直观解释:多任务学习– ERNIE 2.0(附链接)

本文深入浅出地介绍了多任务学习的概念,以ERNIE 2.0为例,探讨了神经网络如何处理多个任务,如预测单词和情感分析。通过梯度下降和预训练&微调策略,模型在不同任务间学习并优化。此外,ERNIE 2.0利用大量数据进行持续学习,但任务顺序、学习方式对结果的影响仍需探究。
摘要由CSDN通过智能技术生成
640?wx_fmt=png

作者:Michael Ye

翻译:陈雨琳

校对:吴金笛

本文约 1500字 ,建议阅读 7分钟

本文将介绍多任务学习。


科技巨头百度于今年早些时候发布了其最新的NLP架构ERNIE 2.0,在GLUE基准测试中的所有任务上得分均远高于XLNet和BERT。NLP的这一重大突破利用了一项被称为“连续增量式多任务学习”的创新技术。在本文中,我们将直观地解释“连续多任务学习”的概念,构建ERNIE 2.0模型,并解决有关ERNIE 2.0结果的疑虑。
 
预备知识:
  1. 神经网络

  2. 梯度下降

  3. 预训练&微调

(请看这个视频:https://bit.ly/2lIADHm)

什么是多任务学习?
 
为了理解多任务学习,让我们从单任务学习示例开始:为了简单起见,想象一下在NLP(自然语言处理)预训练中使用的简单前馈神经网络。任务是预测句子中的下一个单词。
 

640?wx_fmt=png


输入字符串是“ I like New”,正确的输出是字符串“ York”。

训练过程(梯度下降)可以看成是滚下山坡的球:这里的地形是损失函数(也称为成本/误差函数),球的位置代表所有参数的当前值(权重和偏差)。
 

640?wx_fmt=png


此图仅有两个维度以用于可视化目的。 如果这个比喻让你无法理解,请查看对梯度下降的理解:https://bit.ly/2C080IK。现在,如果你希望神经网络执行多个任务怎么办? 例如,预测句子中的下一个单词并进行情感分析(预测态度分为正面,中立或负面。例如,“你很棒”被归为正面)。

 
实际上,你可以直接加上另一个输出!
 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值