深度学习模型CPT的环境配置经验

本文详细介绍了CPT深度学习模型的环境配置,包括数据预处理、GPU环境需求、库安装及依赖问题解决。在训练过程中,提到了可能出现的错误及解决方案,如CUDA OOM和session断开问题。最后,文章展示了模型训练的效果和验证方法。
摘要由CSDN通过智能技术生成

CPT code: https://github.com/fastnlp/CPT
CPT paper: https://arxiv.org/pdf/2109.05729.pdf

数据预处理

  • https://zhuanlan.zhihu.com/p/388830967 megatron-lm中的preprocess_data.py的详解, json格式中, 最重要的key, 即text有值即可

  • 用下面的命令, 准备训练数据集

    jsonfile="/Users/phoenixbai/workspace/github/CPT/tmp/eight.files3.json"
    vocabfile="/Users/phoenixbai/workspace/github/CPT/finetune/generation/output/adgen/2/vocab.txt"
    prefix="test"
    
    python ../pretrain/tools/preprocess_data.py \
                   --input $jsonfile \
                   --output-prefix $prefix \
                   --vocab $vocabfile \
                   --dataset-impl mmap \
                   --tokenizer-type BertWordPieceCase 
    

环境配置

  • 需要一台带有gpu卡的机器, gpu驱动升级的方法, 在另一篇文章中再写.

  • 如何从已trained好的cpt-base接着做pretrain, 需要稍改下代码 : https://github.com/fastnlp/CPT/issues/30,

    # model_path = 'roberta_zh'
    model_name = "fnlp/cpt-base"
    # self.language_model = HFBartModel(config, encoder_config)
    #self.language_model = HFBartModel(config)
    #encoder_state = torch.load(model_path + '/pytorch_model.bin', map_location='cpu')
    #self.language_model.model.encoder.load_state_dict(encoder_state)
    self.language_model = HFBartModel.fro
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值