论文题目:GLM: General Language Model Pretraining with Autoregressive Blank Infilling
论文地址:https://arxiv.org/pdf/2103.10360
今天分享一篇论文GLM,2022年由清华大学、智源研究院、MIT等机构发表在国际会议上。其创新点在于提出了一种通用的预训练框架,利用自回归填空填充目标统一不同任务的预训练目标,并引入混合注意力掩码和2D位置编码,以提升自然语言理解和生成的性能。
如今如火如荼的大模型GLM-x系列都是基于GLM架构提出来的 。
开始论文解读。我会按照论文框架对各部分进行详细阐述。
完整内容,请从下方获取。
更多paper内容: