【带你认识一下Bert模型】

带你认识一下Bert模型

Hugging face的官网:https://huggingface.co/
注意:需要科学上网才能访问

这是国外提供的涵盖大模型和数据集的一个仓库
可以用邮箱地址进行注册登录

Bert模型

Hugging Face Model Hub 上托管了数百种基于 BERT 的变体模型,涵盖不同架构调整、任务适配、语言支持和规模优化的版本。以下是主要的分类和典型示例:

1. 原始 BERT 及其官方变体

BERT-base:bert-base-uncased(英文小写)、bert-base-cased(英文保留大小写)

BERT-large:bert-large-uncased、bert-large-cased

多语言 BERT:bert-base-multilingual-cased(支持 104 种语言)

2. 领域专用 BERT

生物医学:dmis-lab/biobert-v1.1(生物医学文本)

法律:nlpaueb/legal-bert-base-uncased

科学文献:allenai/scibert-scivocab-uncased

3. 多语言 & 非英语 BERT

Chinese BERT:bert-base-chinese

Japanese:cl-tohoku/bert-base-japanese

Arabic:asafaya/bert-base-arabic

其他语言:Hugging Face 提供法语、德语、俄语等单语模型

4. 效率优化模型

DistilBERT:distilbert-base-uncased(轻量版,保留 97% 性能)

TinyBERT:huawei-noah/TinyBERT_General_4L_312D

MobileBERT:google/mobilebert-uncased(移动端优化)

5. 任务特定微调模型

问答(QA):bert-large-uncased-whole-word-masking-finetuned-squad

情感分析:finiteautomata/bertweet-base-sentiment-analysis

NER:dslim/bert-base-NER(命名实体识别)

6. 架构改进变体

RoBERTa:roberta-base(优化训练方式)

ALBERT:albert-base-v2(参数共享减少体积)

ELECTRA:google/electra-base-discriminator(替换检测预训练)

DeBERTa:microsoft/deberta-base(解耦注意力机制)

7. 中文社区模型

BERT-wwm:hfl/chinese-bert-wwm(全词掩码)

MacBERT:hfl/chinese-macbert-base(纠错预训练)

NEZHA:peterchou/nezha-chinese-base

8. 其他创新变体

SpanBERT:SpanBERT/spanbert-base-cased(面向跨文本)

Longformer:allenai/longformer-base-4096(处理长文本)

BART:facebook/bart-base(生成任务适配)

统计数量

截至 2023 年,Hugging Face 上仅标签含 “bert” 的模型就超过 5,000+(包括不同微调版本)。若按独特架构计算,核心变种约有 100+ 种。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值