折腾半天,Bert的训练模型参数windows一定要这样

1、后面需要反斜杠

2、windows的路径也是反斜杠

否则出现各种奇葩的错误,看着快放弃了。给小白的做bert训练的第一个小坑


--task_name=MRPC \
  --do_train=true \
  --do_eval=true \
  --data_dir=..\GLUE\glue_data\MRPC \
  --vocab_file=..\GLUE\BERT_BASE_DIR\uncased_L-12_H-768_A-12\vocab.txt \
  --bert_config_file=..\GLUE\BERT_BASE_DIR\uncased_L-12_H-768_A-12\bert_config.json \
  --init_checkpoint=..\GLUE\BERT_BASE_DIR\uncased_L-12_H-768_A-12\bert_model.ckpt \
  --max_seq_length=128 \
  --train_batch_size=8 \
  --learning_rate=2e-5 \
  --num_train_epochs=3.0 \
  --output_dir=/tmp/mrpc_output/
————————————————
如果不用相对变量,可以用绝对路径

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
cola、sst-2和mrpc都是自然语言处理(NLP)常用的数据集。 cola代表的是Language Understanding Evaluation(LUKE)的共同事业片的句子相似度任务(STS)。在这个任务,我们需要判断两个句子之间的相似性。该数据集由句子配对组成,每个句子配对都有一个二进制标签,表示两个句子是否具有相似的语义。我们可以使用这个数据集来开发和评估句子相似度模型。 sst-2代表的是斯坦福树库(Stanford Sentiment Treebank)的二分类情感分类任务。在这个任务,我们需要将一个句子分类为积极的(positive)还是消极的(negative)。这个数据集包含了大量的电影评论,每个评论都有一个情感标签。sst-2是一个常用的情感分类数据集,适用于训练和评估情感分类模型。 mrpc代表的是微软研究院发布的Microsoft Research Paraphrase Corpus。在这个任务,我们需要判断两个句子是否是近义词(也称为“改写”或“释义”)。该数据集由句子配对组成,每个配对都有一个二进制标签,表示两个句子是否具有相似的语义。mrpc是一个常用的句子相似度数据集,适用于训练和评估句子相似度模型。 这三个数据集在NLP研究和应用被广泛使用,可以帮助开发者和研究人员评估各种NLP模型的性能。通过在这些数据集上进行训练和测试,我们可以获得各种任务上的准确性、召回率和F1分数等指标,进而改进和优化NLP模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值