大规模预训练语言模型是目前NLP领域研究的热点。
近期,阿里巴巴达摩院语言技术实验室联合阿里云EFLOPS团队发布了超大规模中文理解&生成联合模型PLUG (Pre-training for Language Understanding and Generation)。
这是中文领域首个百亿规模的预训练语言模型,自然语言理解任务上,在CLUE分类榜单上排名前列;自然语言生成任务上,在多个业务数据上较此前最好水平平均提升8%以上。
同时,PLUG提供了在线开放服务供学术交流体验。
此次报告将从模型算法、工程实现、软硬件加速等多个层面介绍PLUG模型的“诞生记”。
报告详情
报告主题:超大规模中文理解&生成联合模型PLUG
报告时间:5月13日(周四)19:00~20:00
报告形式:线上(Zoom + 智源社区Hub + B站直播)
讲者介绍:王玮,阿里巴巴达摩院语言技术实验室算法专家,北京邮电大学硕士。目前负责大规模语言模型的研发和落地应用,PLUG项目负责人。研究兴趣包括机器阅读理解,预训练语言模型等。提出的SLQA/StructBERT/PLUG等模型曾在SQuAD/GLUE/CLUE等NLP领域顶级benchmark中多次登顶。在ACL/EMNLP/ICLR等会议中累计发表论文十余篇。
观看方式
智源社区Hub直播:(点击【阅读原文】或扫描下方二维码)
Zoom 观看:https://zoom.com.cn/j/6011507040(无密码)
B站直播:https://live.bilibili.com/21484823
入群交流
欢迎加入智源社区「预训练」交流群
(更多活动信息将在交流群中同步)