模型支持的框架

下表显示了库中对每个模型的当前支持,无论它们是否具有 Python 分词器(称为“慢速”)。由 🤗 Tokenizers 库支持的“快速”分词器,无论它们是否支持 Jax(通过 Flax)、PyTorch 和/或 TensorFlow。

Model

Tokenizer slow

Tokenizer fast

PyTorch support

TensorFlow support

Flax Support

ALBERT

ALIGN

AltCLIP

Audio Spectrogram Transformer

BART

BEiT

BERT

Bert Generation

BigBird

BigBird-Pegasus

BioGpt

BiT

Blenderbot

BlenderbotSmall

BLIP

BLIP-2

BLOOM

BridgeTower

CamemBERT

CANINE

Chinese-CLIP

CLAP

CLIP

CLIPSeg

CodeGen

Conditional DETR

ConvBERT

ConvNeXT

ConvNeXTV2

CPM-Ant

CTRL

CvT

Data2VecAudio

Data2VecText

Data2VecVision

DeBERTa

DeBERTa-v2

Decision Transformer

Deformable DETR

DeiT

DETA

DETR

DiNAT

DistilBERT

DonutSwin

DPR

DPT

EfficientFormer

EfficientNet

ELECTRA

Encoder decoder

ERNIE

ErnieM

ESM

FairSeq Machine-Translation

FlauBERT

FLAVA

FNet

Funnel Transformer

GIT

GLPN

GPT Neo

GPT NeoX

GPT NeoX Japanese

GPT-J

GPT-Sw3

GPTBigCode

GPTSAN-japanese

Graphormer

GroupViT

Hubert

I-BERT

ImageGPT

Informer

Jukebox

LayoutLM

LayoutLMv2

LayoutLMv3

LED

LeViT

LiLT

LLaMA

Longformer

LongT5

LUKE

LXMERT

M-CTC-T

M2M100

Marian

MarkupLM

Mask2Former

MaskFormer

MaskFormerSwin

mBART

MEGA

Megatron-BERT

MGP-STR

MobileBERT

MobileNetV1

MobileNetV2

MobileViT

MPNet

MT5

MVP

NAT

Nezha

NLLB-MOE

Nyströmformer

OneFormer

OpenAI GPT

OpenAI GPT-2

OPT

OWL-ViT

Pegasus

PEGASUS-X

Perceiver

Pix2Struct

PLBart

PoolFormer

ProphetNet

QDQBert

RAG

REALM

Reformer

RegNet

RemBERT

ResNet

RetriBERT

RoBERTa

RoBERTa-PreLayerNorm

RoCBert

RoFormer

SegFormer

SEW

SEW-D

Speech Encoder decoder

Speech2Text

Speech2Text2

SpeechT5

Splinter

SqueezeBERT

Swin Transformer

Swin Transformer V2

Swin2SR

SwitchTransformers

T5

Table Transformer

TAPAS

Time Series Transformer

TimeSformer

Trajectory Transformer

Transformer-XL

TrOCR

TVLT

UniSpeech

UniSpeechSat

UPerNet

VAN

VideoMAE

ViLT

Vision Encoder decoder

VisionTextDualEncoder

VisualBERT

ViT

ViT Hybrid

ViTMAE

ViTMSN

Wav2Vec2

Wav2Vec2-Conformer

WavLM

Whisper

X-CLIP

X-MOD

XGLM

XLM

XLM-ProphetNet

XLM-RoBERTa

XLM-RoBERTa-XL

XLNet

YOLOS

YOSO

Transformer 模型如何在高层次上工作,并讨论了迁移学习和微调的重要性。一个关键方面是您可以使用完整的体系结构或仅使用编码器或解码器,具体取决于您要解决的任务类型。下表总结了这一点:

Encoder

ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa

句子分类、命名实体识别、抽取式问答

Decoder

CTRL, GPT, GPT-2, Transformer XL

文本生成

Encoder-decoder

BART, T5, Marian, mBART

总结、翻译、生成式问答

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值