Finetune时利用自己的训练数据或者测试数据

以huggingface- transformer中实现的的text-classification为例。

在使用bash运行时,删掉task_name 或是其他可以自动下载数据集的传入参数。

按需增加以下传入参数

(训练/测试/验证集要是.csv或者.json文件)

--train_file 训练集地址 \
--validation_file 验证集地址 \
--test_file 测试集地址 \
--do_train \
--do_eval \
--do_predict \

以下是我的bash:

python3 run_glue.py \
  --model_name_or_path bert-base-uncased \
  --train_file ./data/train.csv \
  --validation_file ./data/dev.csv \
  --test_file ./data/test.csv \
  --do_train \
  --do_eval \
  --do_predict \
  --max_seq_length 128 \
  --per_device_train_batch_size 8 \
  --learning_rate 2e-5 \
  --num_train_epochs 3 \
  --output_dir /tmp/run_glue/

之后在加载数据的时候就会加载自己的数据了

加载本地数据代码段(transformers代码)


# Loading a dataset from your local files.
# CSV/J
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值