哈工大讯飞联合实验室(HFL)在前期陆续发布了多个中文预训练模型,目前已成为最受欢迎的中文预训练资源之一。为了进一步方便广大用户的使用,借助Transformers平台可以更加便捷地调用已发布的中文预训练系列模型。
自定义预训练模型
近日,目前NLP领域非常流行的预训练模型工具包Transformers( https://github.com/huggingface/transformers )迎来新版本更新。Transformers工具包研发团队Huggingface在Twitter上发布Transformers v2.2.2已支持上传第三方的预训练模型。
快速加载
为了方便广大用户的使用,我们将哈工大讯飞联合实验室发布的所有中文预训练模型上传至Transformers平台。相关模型以及对应的分词器会自动从Transformers平台中下载,确保数据准确无误。在使用Transformers工具包时,仅需在调用时使用如下代码。 对于BERT以及RoBE