微调脚本文件 transformers:transformers-cli login、transformers-cli upload

日萌社

 

人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)


run_glue.py微调脚本代码

python命令执行run_glue.py模型微调文件进行微调模型

微调脚本文件 transformers:transformers-cli login、transformers-cli upload

Pytorch:NLP 迁移学习、NLP中的标准数据集、NLP中的常用预训练模型、加载和使用预训练模型、huggingface的transfomers微调脚本文件


通过微调脚本微调后模型的使用步骤:
    第一步: 在https://huggingface.co/join上创建一个帐户
    第二步: 在服务器终端使用transformers-cli login命令登陆(需要梯子,否则国内网络很难连接登录上)。
            transformers-cli文件在transformers目录下。
            第一次登录时会生成token并存储到/home/用户名/.huggingface/token目录下。
            并且window下无法执行transformers-cli,需要在linux下才能执行transformers-cli。
                transformers-cli login
                输入username和password
    第三步: 使用transformers-cli upload命令上传微调后的模型并查看
                transformers-cli upload SAVE_DIR(微调模型的保存路径)
                transformers-cli upload ./bert_finetuning_test/
                transformers-cli ls 查看上传结果
    第四步: 使用pytorch.hub加载微调后的模型进行使用    
linux执行脚本文件 /usr/bin/env: "python\r": 没有那个文件或目录  /usr/bin/env: "python\r": No such file or directory
        报错:/usr/bin/env: "python\r": 没有那个文件或目录  
             /usr/bin/env: "python\r": No such file or directory
        原因:在windows下从github中git clone下来可能创建多了\r字符。
              #!/usr/bin/env python 在ubuntu会变成 #!/usr/bin/env python\r 而\r 会被shell 当成参数。
              Windows文本文件的行结束标志是\r\n
              类unix文本文件的行结束标志是\n
        解决:1.不在window下执行git clone操作,改为在linux下执行git clone操作。
              2.vim 该脚本文件,执行:set ff=unix 回车,设置为unix格式。
                :set ff 然后回车,这个文件显示为unix格式。:wq退出保存。
注意:
    1.解决每次执行torch.hub.load但是每次同时又重新下载预训练模型文件的问题:
        当第一次执行torch.hub.load加载预训练模型会自动下载对应的预训练模型文件,当第一次下载完成并成功运行之后,
        后面每次再执行相同的代码时如果出现重新下载之前已经下载过的并且目录已存在的预训练模型文件的话,
        那么解决方式是只需要到C:/Users/Administrator/.cache/torch/hub/huggingface_pytorch-transformers_master
        或 /root/.cache/torch/hub/huggingface_pytorch-transformers_master
        目录中执行一次“pip install .”命令重新再次安装一次transformers之后,即使安装过程中提示transformers已经安装存在了也没关系,
        当重新执行完“pip install .”之后那么再运行torch.hub.load即不会再重新下载之前已经下载过的并且目录已存在的预训练模型文件,
        即能解决每次执行torch.hub.load每次又重新下载预训练模型文件的问题。
        预训练模型文件自动下载在:C:/Users/Administrator/.cache/torch/transformers 或 /root/.cache/torch/transformers。
        
    2.解决每次python命令执行run_glue.py但是每次同时又重新下载预训练模型文件的问题:
        解决方式同上述第一点解决每次执行torch.hub.load又重新下载预训练模型文件的问题。
        当第一次python命令执行run_glue.py模型微调文件加载预训练模型会自动下载对应的预训练模型文件,当第一次下载完成并成功运行之后,
        后面每次再执行相同的python命令执行run_glue.py时如果出现重新下载之前已经下载过的并且目录已存在的预训练模型文件的话,
        那么解决方式是只需要到C:/Users/Administrator/.cache/torch/hub/huggingface_pytorch-transformers_master
        或 /root/.cache/torch/hub/huggingface_pytorch-transformers_master
        目录中执行一次“pip install .”命令重新再次安装一次transformers之后,即使安装过程中提示transformers已经安装存在了也没关系,
        当重新执行完“pip install .”之后那么再运行torch.hub.load即不会再重新下载之前已经下载过的并且目录已存在的预训练模型文件,
        即能解决每次python命令执行run_glue.py但是每次同时又重新下载预训练模型文件的问题。
        预训练模型文件自动下载在:C:/Users/Administrator/.cache/torch/transformers 或 /root/.cache/torch/transformers。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

あずにゃん

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值