贴一下汇总贴:论文阅读记录
论文链接:《ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin Information》
一、摘要
最近的中文预训练模型忽略了中文特有的两个重要方面:字形和拼音,它们为语言理解携带重要的句法和语义信息。在这项工作中,我们提出了 ChineseBERT,它将汉字的 {\it glyph} 和 {\it pinyin} 信息合并到语言模型预训练中。字形嵌入是基于汉字的不同字体获得的,能够从视觉特征中捕捉字符语义,拼音嵌入表征汉字的发音,处理了汉语中非常普遍的异音现象(同一个字有不同的读音,不同的意思)。在大规模无标签中文语料上进行预训练,与基线模型相比,提出的 ChineseBERT 模型在训练步骤较少的情况下产生了显着的性能提升。porpsoed 模型在广泛的中文 NLP 任务上实现了新的 SOTA 性能,包括机器阅读理解、自然语言推理、文本分类、句子对匹配和命名实体识别中的竞争性能。代码和预训练模型:Github。
二、结论
本文介绍了一个大规模预处理的中文自然语言处理模型——ChineseBERT模型。它利用汉字的字形和拼音信息来增强模型从表面字符形式中获取上下文语义和消除汉语中多音字歧义的能力。所提出的ChineseBERT模型在广泛的中文自然语言处理任务中取得了显著的性能提升。所提出的ChineseBERT模型在训练