![94312597d660dc016d7c41b84b91476e.png](https://img-blog.csdnimg.cn/img_convert/94312597d660dc016d7c41b84b91476e.png)
项目地址
Bert-Encode-Servergithub.com引用项目
壮哉我贾诩文和:Keras-Bert-Ner-Lightzhuanlan.zhihu.com![bebd87bc138e8d5eff4a8e35a451f5a4.png](https://img-blog.csdnimg.cn/img_convert/bebd87bc138e8d5eff4a8e35a451f5a4.png)
简介
项目在肖涵老师的bert-as-service上添加了ALBERT
模型,总体使用与bert-as-service保持一致。
直接通过Bert Encode Server服务端获取输入特征(可以是字特征,也可以是句特征),此时的预训练语言模型仅作为通用的特征提取器,不参与下游模型的训练,可以显著降低任务的计算资源占用;从Bert Encode Server服务端提取特征需要一定的耗时,该耗时取决于服务端的计算性能
更新日志
- 2020.03.03 新增样例。
- 2020-01-11 加载roberta系列模型时,不需要添加
-albert
参数,其网络结构与bert模型一致。