BERT

GitHub:https://github.com/google-research/bert

一、准备用于训练的数据:(参考:Pre-training with BERT)

1、从GitHub的说明可知,用于训练的语料(纯文本)可以放在多个文件中,每个文件中一个句子放在一行,每个文件中来自同一篇文档的句子之间没有空行,不同文档之间的用一个空行间隔,以示区别不同的文档。

2、获得从纯文本到用于TF训练输入的脚本是:create_pretraining_data.py

运行该文档需要一个词表 vocab.txt,BERT没有说明该词表应该如何产生,并且BERT给出的示例运行脚本中使用的是一个 sample_text.txt 文件,该文件中是英文,所以猜测只要将BERT发布的 Pre-trained models 中任何一个模型中包含的vocab.txt 拿过来放到这边就可以了;不需要自己根据sample_text.txt 重新产生一个vocab.txt

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值