![acc946b749d85e0e876366a8a23ece51.png](https://img-blog.csdnimg.cn/img_convert/acc946b749d85e0e876366a8a23ece51.png)
New May 31st, 2019: Whole Word Masking Models (google-research)https://github.com/google-research/bert
Whole Word Masking (wwm)是谷歌在2019年5月31日发布的一项BERT的升级版本,主要更改了原预训练阶段的训练样本生成策略。
简单来说,原有基于WordPiece的分词方式会把一个完整的词切分成若干个子词,在生成训练样本时,这些被分开的子词会随机被mask。 在Whole Word Masking (wwm)中,如果一个完整的词的部分WordPiece子词被mask,则同属该词的其他部分也会被mask。
![309d61b9d6cf1cf7d0a1acfa0e066c77.png](https://img-blog.csdnimg.cn/img_convert/309d61b9d6cf1cf7d0a1acfa0e066c77.png)
( 需要注意的是,这里的mask指的是广义的mask(替换成[MASK];保持原词汇;随机替换成另外一个词),并非只局限于单词替换成[MASK]标签的情况。)
中文BERT-WWM
2019年哈工大和科大讯飞联合发表中文BERT-WWM模型的论文。
论文链接:https://arxiv.org/pdf/1906.08101.pdf
![f8cc47b30c6f2633cb0c738d6b0e12a8.png](https://img-blog.csdnimg.cn/img_convert/f8cc47b30c6f2633cb0c738d6b0e12a8.png)
![ca3205e30c8b3ff88fb2b9d2fe23a799.png](https://img-blog.csdnimg.cn/img_convert/ca3205e30c8b3ff88fb2b9d2fe23a799.png)
“ 最近,BERT 的作者发布了 BERT 的更新版本,称为全