BERT(Bidirectional Encoder Representation from Transformers)是google-research在2018年10月提出的一种预训练模型,在11种不同NLP测试中创出SOTA表现,成为NLP发展史上里程碑式的模型成就。
本篇文章从实践入手,带领大家进行Bert的中文文本分类模型的训练和推理的使用教程。
参考资料:
bert中文分类模型训练+推理+部署
BERT模型从训练到部署
GitHub:BERT模型从训练到部署全流程
BERT文本分类,代码超基础、超详细解析
让大家久等了,BERT推理加速终于开源了