带你认识一下Bert模型
Hugging face的官网:https://huggingface.co/
注意:需要科学上网才能访问
这是国外提供的涵盖大模型和数据集的一个仓库
可以用邮箱地址进行注册登录
Bert模型
Hugging Face Model Hub 上托管了数百种基于 BERT 的变体模型,涵盖不同架构调整、任务适配、语言支持和规模优化的版本。以下是主要的分类和典型示例:
1. 原始 BERT 及其官方变体
BERT-base:bert-base-uncased(英文小写)、bert-base-cased(英文保留大小写)
BERT-large:bert-large-uncased、bert-large-cased
多语言 BERT:bert-base-multilingual-cased(支持 104 种语言)
2. 领域专用 BERT
生物医学:dmis-lab/biobert-v1.1(生物医学文本)
法律:nlpaueb/legal-bert-base-uncased
科学文献:allenai/scibert-scivocab-uncased
3. 多语言 & 非英语 BERT
Chinese BERT:bert-base-chinese
Japanese:cl-tohoku/bert-base-japanese
Arabic:asafaya/bert-base-arabic
其他语言:Hugging Face 提供法语、德语、俄语等单语模型
4. 效率优化模型
DistilBERT:distilbert-base-uncased(轻量版,保留 97% 性能)
TinyBERT:huawei-noah/TinyBERT_General_4L_312D
MobileBERT:google/mobilebert-uncased(移动端优化)
5. 任务特定微调模型
问答(QA):bert-large-uncased-whole-word-masking-finetuned-squad
情感分析:finiteautomata/bertweet-base-sentiment-analysis
NER:dslim/bert-base-NER(命名实体识别)
6. 架构改进变体
RoBERTa:roberta-base(优化训练方式)
ALBERT:albert-base-v2(参数共享减少体积)
ELECTRA:google/electra-base-discriminator(替换检测预训练)
DeBERTa:microsoft/deberta-base(解耦注意力机制)
7. 中文社区模型
BERT-wwm:hfl/chinese-bert-wwm(全词掩码)
MacBERT:hfl/chinese-macbert-base(纠错预训练)
NEZHA:peterchou/nezha-chinese-base
8. 其他创新变体
SpanBERT:SpanBERT/spanbert-base-cased(面向跨文本)
Longformer:allenai/longformer-base-4096(处理长文本)
BART:facebook/bart-base(生成任务适配)
统计数量
截至 2023 年,Hugging Face 上仅标签含 “bert” 的模型就超过 5,000+(包括不同微调版本)。若按独特架构计算,核心变种约有 100+ 种。