Transformer 综合讲解15-20章

第15: Question Generation综合案例源码、测试及调

1,从TextMultiple choice question数学原理、使用的Transformer知识、架构设

1,自动生成错误的问题选

2,使用GPT2自动生成对错二分类的问

3,使用Transformer生成多选题

4,使用Transformer自动生成完形填空题

5,使用Transformer基于特定内容生成问

6,完整案例调试分析

7,使用fastAPI部署、测试Transformer

8,使用TFX部署、测试Transformer

16章:Kaggle BERT比赛CommonLit Readability Prize赛题解析、Baseline代码解析、及比赛常见问

1,以问题为导向的Kaggle Data Competition

2,为何Kaggle上的NLP 80%以上都是文本分类比赛,并必须使用Neural Networks

3,文本复杂度衡量不同类型实现技术分

4,比赛的Training数据集分析:idurl_legallicenseexcerpttargetstandard_error

5,比赛的评价指标分

6ReadabilityNLP Classification or Regression based on neural networks

7Kaggle比赛通用步骤:Data - Cleaning - Store - GridSearch - Model - Prediction

8,比赛外部数据集分

9,比赛使用的硬件条件分

10Training SetValidation SetTest Set

11,比赛的双层Pretraining技术解

12Pretraining的三大类型解析:ITPTIDPTCDPT

13,传统的Statistics Method建模 + 树模

14Statistical features构建源码分

15,融合统计信息并使用Regression模型解

16,使用RoBERTa模型解

17,使用AutoModelForMaskedLM

18TrainConfig

19,模型的Tokenizer

20,模型加

21,对RoBERTa进行pretrain源码解析解决原声BERT和比赛数据领域Discrepancy的问

22Model weights保存时的jsonbin

23,使用Kaggle Notebook加载第一次pretrain后的模

24,验证集:K-FoldSampling等分

25Early stoping

26,把Examples转为Features

27DatasetRetriever源码实现详

28Input IDsAttention MaskToken type IDs

28CommonLitModel源码之regressor

30Comm

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值