transformer库的思想

transformer库建立思路

(1) Model类: 如BertModel , 目前收录有超过30个PyTorch模型或Keras模型;
(2) Configuration类: 如BertConfig , 用于存储搭建模型的参数;
(3) Tokenizer类: 如BertTokenizer , 用于存储分词词汇表以及编码方式;
使用from_pretrained()和save_pretrained()方法来调用和保存这三种类的实例对象;

语言模型

带掩码的语言模型

: 即通过挖去语句中的部分单词,对这些单词进行预测得到的结果

因果语言模型

Causal Language Modeling: 即通过n-gram单词序列预测下一个单词的方法

目前收录一些文本生成模型

GPT-2

OpenAi-GPT

CTRL

XLNet

Transfo-XL

Reformer

模型汇总

transformer模型可以分为以下几类:
自回归(autoaggressive)模型:
自编码(autoencoding)模型: 破坏(corrupting)输入分词序列, 并试图将其用另一种设法重构原始序列, 一般来说这类模型都会对整个语句进行双向(bidirectional)表示, 最经典的模型就是BERT;
sequence-to-sequence模型: 即使用transformer架构中的编码器与解码器;
多模式的(multimodal)模型: 将文本输入转换为其他类型的输出(如图片);
基于检索的(retrieval-based)模型;

模型保存与调取

模型保存与调取**: save_pretrained()与from_pretrained()方**法;

模型共享

使用 g i t git git上传到模型指定的仓库。

多语言模型

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

经验

了解常用的语言模型调的时候进行学习与研究。

认真将transformer模块好好研究以下,全部都将其搞定都行啦的理由与打算。;

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

big_matster

您的鼓励,是给予我最大的动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值