直播预告 | AAAI 2022论文解读:基于对比学习的预训练语言模型剪枝压缩

c598ac2456021767c2138f1c3588258a.gif

e7908ca787d7d85ed0af9568556a9d7a.png

3c89ef13e41ab1eba4e87a82e394b100.png

「AI Drive」是由 PaperWeekly 和 biendata 共同发起的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果。我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和交流可能会让知识的传播更加有意义,从而产生更大的价值。

本期 AI Drive,我们邀请到北京大学计算语言所硕士生许润昕,为大家在线解读其发表在 AAAI 2022 的最新研究成果:From Dense to Sparse: Contrastive Pruning for Better Pre-trained Language Model Compression。对本期主题感兴趣的小伙伴,1 月 20 日(本周四)晚 7 点,我们准时相约 PaperWeekly 直播间。

直播信息

近年来,预训练语言模型迅速发展,模型参数量也不断增加。为了提高模型效率,各种各样的模型压缩方法被提出,其中就包括模型剪枝。然而,现有的模型剪枝方法大多只聚焦于保留任务相关知识,而忽略了任务无关的通用知识的保留。对此,我们提出了一种基于对比学习的新的剪枝框架,适用于各种结构化剪枝与非结构化剪枝方法,在各种压缩比下都提升了压缩后模型的表现。

论文标题:

From Dense to Sparse: Contrastive Pruning for Better Pre-trained Language Model Compression

论文链接:

https://arxiv.org/abs/2112.07198

本次分享的具体内容有: 

  • 预训练语言模型发展与模型压缩

  • 模型剪枝压缩中存在的问题

  • 基于对比学习的预训练语言模型剪枝压缩

  • 实验分析与结论

嘉宾介绍

7d34470977f7abc0dbeec359c2a6bb92.png

 许润昕 / 北京大学计算语言所硕士生 

许润昕,北京大学计算语言所二年级硕士生,导师为常宝宝老师。主要研究兴趣为自然语言处理中的关系抽取,事件抽取,以及预训练模型的应用与加速等方向。在ACL、EMNLP、AAAI、CIKM等国际会议上发表论文。

直播地址 & 交流群

本次直播将在 PaperWeekly 视频号和 B 站直播间进行,扫描下方海报二维码点击阅读原文即可免费观看。线上分享结束后,嘉宾还将在直播交流群内实时 QA,在 PaperWeekly 微信公众号后台回复「AI Drive」,即可获取入群通道

视频号直播间:

扫描下方二维码关注 PaperWeekly 视频号,第一时间获取开播提醒。

ef4bfc109bd51a5dc30a620231e62529.png

B 站直播间:

https://live.bilibili.com/14884511

bd79de9b4ad21467988c263211368d06.png

合作伙伴

3dd86cbde15aac47e15b972fce6d67bb.png

273b74664ee1a64d2e448ec44762730c.png

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

1a5a84150b587dcc00e1f0a6c97e3fe2.png

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值