bert-base-ner-train训练没有打印loss及step等重要参数信息(写给初学者)

在跟随大牛 Macanv《基于BERT预训练的中文命名实体识别TensorFlow实现》的帖子一步步实现时,发现了一个非常困扰的问题,就是执行以下语句后,屏幕上什么提示也没有,比如loss是多少,进行到哪一步了step等等,百度一顿搜索后,并未直接找到合适答案,很是困扰。

附上大牛的帖子,精华之作:

基于BERT预训练的中文命名实体识别TensorFlow实现_Macanv的博客-CSDN博客_bert命名实体识别代码实现BERT-BiLSMT-CRF-NERTensorflow solution of NER task Using BiLSTM-CRF model with Google BERT Fine-tuning使用谷歌的BERT模型在BLSTM-CRF模型上进行预训练用于中文命名实体识别的Tensorflow代码’代码已经托管到GitHub 代码传送门 大家可以去clone 下来亲自体验一下!g...https://blog.csdn.net/macanv/article/details/85684284

bert-base-ner-train -data_dir ./data -output_dir output -init_checkpoint ../bert/chinese_L-12_H-768_A-12/bert_model.ckpt -bert_config_file ../bert/chinese_L-12_H-768_A-12/bert_config.json -vocab_file ../bert/chinese_L-12_H-768_A-12/vocab.txt -batch_size 64 -num_train_epochs 6

会出现类似这样的界面,一直到训练结束,才给出一个统计结果,完全黑盒,啥也看不到:

主要步骤分为两步:

1、修改bert_lstm_ner.py文件

在文件开始处,增加:tf.logging.set_verbosity(tf.logging.INFO),更改日志输出级别

文件目录:/home/你自己的用户名/anaconda3/envs/py36/lib/python3.6/site-packages/bert_base/train/bert_lstm_ner.py

对文件目录进行说明:可以找到对应的虚拟环境目录下,执行find -name bert_lstm_ner.py,这一步很关键,估计对新手还是比较难的,可以看出该文件是在bert-base目录下的

 2、在修改上述目录下的 bert_lstm_ner.py文件,417行的位置(如果你没改动过)

将老内容:

logging_hook = tf.train.LoggingTensorHook(
                         hook_dict, every_n_iter=args.save_summary_steps)

改为下面的新内容:

logging_hook = tf.train.LoggingTensorHook(hook_dict, every_n_iter=5)

every_n_iter这个可以根据自己意愿调整,表示多少步输出一个结果

在shell中快速翻页用,以下命令,可快速找到对应的行

向下翻页快捷键(下一页):Ctrl + f

向上翻页快捷键(上一页):Ctrl + b

执行:wq ,保存退出。

然后再执行训练语句,会出现想看到的各种结果了,熟悉的界面是不是又回来了。

 好了,按照以上步骤可以自定义你想要的输出了。

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值