BERT学习【BERT的例子以及作用】

一、case

1.case1

多输入单输出。通过输入一个句子(sequence),然后输出一个句子的分类(这个句子是正向还是负向)。将句子输入BERT,然后通过softmax输出分类。
在这里插入图片描述

2.case2

多输入多输出。输入一个句子,输出句子中每个单词的词性。每一个词对应一个向量,然后每一个向量分别做一个linear的transformer乘以矩阵,在经过softmax输出类别
在这里插入图片描述

3.case3

多输入单输出。输入两个句子,输出这两个句子是否相关。在这里插入图片描述
输入两个句子以及[SEP]和[CLS]到BERT中,然后在[CLS]对应位置,经过Lineartransformer,最后通过softmax输出分类。

在这里插入图片描述

4.case4

多输入多输出。将问题和文章输入到BERT中,通过RandomInitialized,与输入内容对应的向量做内积,通过softmax输出,选择可能性最大的内容输出。
在这里插入图片描述

二、work作用

1.例子

喝苹果汁的过和评估电脑的过是不一样的。因为将内容输入到BERT中,BERT是一个encoder,带有selfattention,会根据上下文的不同,果对应的向量也不同。
在这里插入图片描述
通过计算果的相似度,上面5句话是代表能吃的果,下面的5句话代表苹果公司,两两之间做相似度,形成一个10x10的矩阵。黄色代表相似度高,蓝色代表相似度低。
在这里插入图片描述

2.BERT根据上下文预测填空

BERT根据w2的上下文即w1、w3、w4,可以预测出w2的内容。
在这里插入图片描述

  • 8
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是一个使用BERT进行文本分类的简单示例: ```python import torch from transformers import BertTokenizer, BertForSequenceClassification # 加载预训练的BERT模型和tokenizer model_name = 'bert-base-uncased' # 或者其他可用的预训练模型 tokenizer = BertTokenizer.from_pretrained(model_name) model = BertForSequenceClassification.from_pretrained(model_name, num_labels=2) # 假设二分类任务 # 输入文本 text = "这是一段待分类的文本" # 对文本进行编码 encoded_input = tokenizer.encode_plus( text, add_special_tokens=True, max_length=128, padding='max_length', truncation=True, return_tensors='pt' ) # 将编码后的输入传入模型进行推理 outputs = model(**encoded_input) # 获取模型的输出结果 logits = outputs.logits # 输出的logits是一个包含两个值的张量,对应于两个类别的分数 predicted_labels = torch.argmax(logits, dim=1) # 预测的类别标签 # 输出预测结果 labels = ['类别A', '类别B'] # 类别标签列表 predicted_label = labels[predicted_labels.item()] print("预测的类别为:", predicted_label) ``` 在这个例子中,我们首先使用`BertTokenizer`加载预训练的BERT模型的tokenizer。然后,我们使用`BertForSequenceClassification`加载预训练的BERT模型,并指定了分类任务的类别数。接下来,我们将待分类的文本进行编码,使用`tokenizer.encode_plus`方法对文本进行编码,将其转换为模型可接受的输入格式。 然后,我们将编码后的输入传入BERT模型进行推理,得到模型的输出结果。输出结果中的logits是一个包含两个值的张量,对应于两个类别的分数。我们可以使用`torch.argmax`方法获取预测的类别标签。最后,我们根据类别标签列表,输出预测的类别结果。 请注意,这只是一个简单的示例,实际应用中可能需要根据具体任务进行适当的调整和扩展。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值