@TOC 本章节需要用到的类库 微调任意Transformers模型(CLM因果语言模型、MLM遮蔽语言模型) CLM MLM 准备数据集 展示几个数据的结构 介绍因果语言模型(Causal Language Modeling,CLM) 分词后连接文本,再特定序列长度中拆分 指定一个模型,设置分词器 数据预处理 将所有文本连接在一起,然后将结果分割成特定block_size的小块 数据已经清理完毕,我们就可以实例化我们的训练器了 设置args、trainer 开始训练 训练结束后,评估模型即可 掩蔽语言模型(Mask Language Modeling,MLM) 选择模型和分词器 通过 map 分成batch_size = 1000 的 样本大小 加载一个合适的语言遮蔽模型 转为 token时 要随机 mask掉一些 东西 把所有东西交给 trainer, 然后开始训练 进行评估