青源 LIVE 预告 | 复旦大学:NLP 的范式迁移

复旦大学邱锡鹏教授团队探讨了自然语言处理(NLP)的范式变化,指出预训练模型引领NLP任务趋向统一。研究发现预训练、提示、预测范式可能成为统一各类NLP任务的通用模式。孙天祥等作者通过对比分析提出了对未来NLP发展的展望。
摘要由CSDN通过智能技术生成

近日,复旦大学邱锡鹏教授在其微信朋友圈介绍了他们关于自然语言处理(NLP)研究趋势的最新思考。

7c86e82416efe887bef3c3b7c8a5e008.png


他们认为,近年来伴随着预训练模型的出现, NLP 任务趋向于统一范式;而与此同时,NLP 中的范式迁移现象也愈发频繁,并且涌现出了一些有潜力统一各类自然语言处理任务的通用范式。

在早前,同样来自复旦大学,现于卡耐基梅隆大学(CMU)进行博后研究的刘鹏飞博士,曾发表一篇博客文章《NLP 的第四范式

P1. 非神经网络时代的完全监督学习 (Fully Supervised Learning, Non-Neural Network)

P2. 基于神经网络的完全监督学习 (Fully Supervised Learning, Neural Network)

P3. 预训练,精调范式 (Pre-train, Fine-tune)

P4. 预训练,提示,预测范式(Pre-train, Prompt, Predict)

在不同范式变迁过程中,有些东西是不变的,如果能够把这些不变的东西挖掘出来,会对 NLP 未来的发展起到重要的指导作用。

5a6fab8e80e5ae33b12cccf2fc0281f4.png

论文地址:

https://arxiv.org/pdf/2109.12575.pdf

代码地址:

https://txsun1997.github.io/nlp-paradigm-shift/

在上面这篇论文中,孙天祥等人通过对NLP研究范式进行对比及分析,提出了许多建设性展望。

8717c2c939f116c5bd99435771f76d87.png

为将复旦大学在这方面的思考介绍给大家,智源社区特邀请了论文作者孙天祥对其工作内容进行在线直播报告。


ef30a1c661af0f446488ce54df369674.png

孙天祥,复旦大学博士生,师从邱锡鹏教授和黄萱菁教授,主要关注自然语言处理中的多任务学习、知识融入、高效推理等方向,研究成果发表于AAAI, COLING, ACL, NAACL等会议,担任相关会议审稿人。

主题:自然语言处理中的范式迁移(Paradigm Shift in NLP)

时间:2021年10月11日(周一)19:00~20:00

形式:线上

入会方式:

腾讯会议 - ID:642 419 954

直播地址一:

https://event.baai.ac.cn/activities/169

直播地址二:

https://live.bilibili.com/21484823

报告简介:

近年来,自然语言处理任务的神经网络建模已经形成了几种主流范式,如序列标注、匹配、序列到序列等。相关研究发现,这些范式的迁移常常可以使得模型在特定任务中取得更好的效果,例如用序列到序列范式去解决一个序列标注任务。随着预训练模型的发展,自然语言处理中的范式迁移现象愈发频繁,并且涌现出了一些有潜力统一各类自然语言处理任务的通用范式。在本次报告中,我们将回顾近年来发生在自然语言处理领域中的范式迁移现象,对几个通用范式进行对比、分析和展望。


扫描如下二维码报名活动

cb237ccac2b3cb719c0e8e239c6eee64.png

了解更多信息请加入「自然语言处理」交流群

d55fe535148368b4df83b6aa4c450d55.png

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值