如何应用 BERT :Bidirectional Encoder Representations from Transformers

本文介绍了如何应用BERT模型,包括预训练和微调的步骤。谷歌开源了BERT代码,并提供了预训练模型,其中包含中文版本。预训练通常需要大量资源,但可以通过使用预训练模型简化微调过程。文章推荐了bert-as-service项目,这是一个让BERT模型作为服务运行的工具,简化了在不同框架中使用BERT的向量特征。用户只需简单几步即可启动服务并获取句子的向量编码。
摘要由CSDN通过智能技术生成

上一篇文章介绍了 Google 最新的BERT (Bidirectional Encoder Representations from Transformers) ,这个模型在 11 个 NLP 任务上刷新了纪录。

Google 还开源了 BERT 的代码:https://github.com/google-research/bert

大家可以下载在维基百科语料上使用 TPU 预训练好的模型,包括中文 BERT 预训练模型。

BERT 模型的训练分为**预训练(Pre-training)和微调(Pre-training)**两步。

预训练过程耗时又耗钱,Google 对 BERT 的预训练一般需要 4 到 16 块 TPU 和一周的时间才可以完成。幸好多数情况下我们可以使用 Google 发布的预训练模型,不需要重复构造,

微调时可以根据不同的任务,对模型进行相应的扩展,例如对句子进行情感分类时,只需要在 BERT 的输出层的句向量上面加入几个 Dense 层。所以可以固定 BERT 的参数,将它的输出向量当做一个特征用于具体任务。


那么要如何应用 BERT 呢?

这里介绍一下 bert-as-service ,项目地址:https://github.com/hanxiao/bert-as-service

这个项目将预训练好的 BERT 模型作为一个服务独立运行,很简单地用几行代码就可以调

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值