【大咖说Ⅱ】中科院信工所研究员林政:大规模预训练语言模型压缩技术

欢迎来到2022 CCF BDCI大咖说系列专题报告

听顶级专家学者围绕特定技术领域或选题,讲述自身成果的研究价值与实际应用价值

便于广大技术发烧友、大赛参赛者吸收学术知识,强化深度学习

每周一、三、五,「大咖说」与你相约“一碗数据汤”~

本期大咖

林政,中科院信工所研究员,博士生导师。研究兴趣包括情感分析、智能问答、模型压缩等;2018、2019年连续获得全国“军事智能-机器阅读”挑战赛冠军;2020年在常识推理阅读国际比赛排行榜上取得了三个任务的第一名;近几年在NIPS、ACL、EMNLP、AAAI、IJCAI等国内外顶级学术会议和期刊上发表论文50篇,入选F5000优秀论文,获得国家自然科学基金青年项目、面上项目、国家重点研发计划等多个项目资助。

研究技术方向:网络内容安全,自然语言处理

分享主题:大规模预训练语言模型压缩技术

近几年,预训练语言模型已经成为自然语言处理的主流范式。预训练语言模型的使用分为两步,第一步是在大规模无监督语料上pre-train(预训练)一个大模型,第二步是在下游任务上fine-tune(微调)得到任务相关模型。

随着各类预训练语言模型(如BERT、GPT)的参数量呈指数级增长,这些大模型在带来性能提升的同时,也带来了一些新的问题。比如,大模型的训练开销大、难以在资源受限的场景中部署应用等。所以,我们需要对大规模预训练模型进行高效压缩。

戳视频,看林政老师的完整分享内容↓↓↓

【大咖说Ⅱ】中科院信工所研究员林政:大规模预训练语言模型

希望大家听完林政老师的分享,能学以致用,应用到竞赛中打怪升级、实操进阶哟~ 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值