BERT在pycharm下的实现

第一次接触BERT,在实现其样例的过程中走了很多弯路。

首先是tensorflow-gpu版本要在1.10.0-1.15.0之间,否则会有很多的不兼容问题。
为此,创建了新的虚拟环境:

conda create TF python=3.7
  1. 在这个TF环境下安装Tensorflow:
    tensorflow-gpu 1.15.0与cuda及cudnn对应版本号关系:
    在这里插入图片描述

  2. 1)安装cuda10.0
    下载地址:https://developer.nvidia.com/cuda-10.0-download-archive

  3. 2)安装cudnn7.4
    下载地址:https://developer.nvidia.com/rdp/cudnn-archive
    选择以下几个:
    在这里插入图片描述
    之后使用命令按顺序安装:

sudo dpkg -i libcudnn7_7.4.2.24-1+cuda10.0_amd64.deb
sudo dpkg -i libcudnn7-dev_7.4.2.24-1+cuda10.0_amd64.deb
sudo dpkg -i libcudnn7-doc_7.4.2.24-1+cuda10.0_amd64.deb
  1. 3)安装tensorflow-gpu版:(使用conda环境安装,不要使用pip)
conda install -c databricks tensorflow-gpu 
  1. 环境配置好之后,修改参数:
--task_name=MRPC
--do_train=true
--do_eval=true
--data_dir=/home/xxx/pythonProject/Tensor/BERT/GLUE/glue_data/MRPC
--vocab_file=/home/xxx/pythonProject/Tensor/BERT/GLUE/BERT_BASE_DIR/uncased_L-12_H-768_A-12/vocab.txt
--bert_config_file=/home/xxx/pythonProject/Tensor/BERT/GLUE/BERT_BASE_DIR/uncased_L-12_H-768_A-12/bert_config.json
--init_checkpoint=/home/xxx/pythonProject/Tensor/BERT/GLUE/BERT_BASE_DIR/uncased_L-12_H-768_A-12/bert_model.ckpt
--max_seq_length=128
--train_batch_size=32
--learning_rate=2e-5
--num_train_epochs=3.0
--output_dir=/home/xxx/pythonProject/Tensor/GLUE/output/

在pycharm中设置:
选中run_classifier.py,之后右键选中modify run configation,将上述参数复制到parameters中:
在这里插入图片描述

  1. 运行,等待结果。

在这里插入图片描述

  • 2
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值