2020联合作战智能博弈挑战赛之(十九)BERT

本文介绍了作者在尝试使用BERT进行NLP任务时遇到的问题,包括TensorFlow版本不兼容导致的tf.contrib包问题,解决方法是手动更新代码或降级TensorFlow版本。此外,还涉及了TPU与GPU运行的差异,以及在GPU训练时显存不足和DLL依赖的问题。最后,作者分享了如何调整batch size来适应GPU资源并展示部分训练结果。
摘要由CSDN通过智能技术生成

2020年11月21日笔记

已慢慢淡出比赛的我目前没有心情继续研究强化学习里面的深层次技术。最近对NLP产生了一些兴趣。今天在github里找了一个用BERT写的框架,项目名字是bert_classification。由于该框架中一些代码已经不支持tensorflow3.x了,如果不去降低tensorflow的版本无法运行源程序。由于我比较喜欢用最新的api,降低版本不是首选之策。那么就需要手动去更改里面一些包的位置。重灾区在tf.contrib里面。举个例子,经过一番搜索,发现tf.contrib.data.map_and_batch这个包可以从from tensorflow.python.data.experimental.ops.batching import map_and_batch中找到替换方案。如果引用的api只是名字一样而功能不一样,很有可能在传入参数的数量和类型上很快发现不匹配。

另外,默认的源码下载下来以后并没有提供chinese_L-12_H-768_A-12的下载,大家需要手动去下载以后放在根目录里。

上面这段代码可以调用TPU,源代码中用的是contrib,被我改成了estimator,不过后面执行for (k, prediction) in enumerate(result):的时候报出的错我目前没有能力解决。尝试用一般的Estimator取代了TPUEstimator还是没解决问题(可能是因为我还没有改造EstimatorSpec造成)。BERT

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AlphaFinance

您的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值