BERT的get_sequence_output与get_pooled_output方法

BERT的get_sequence_output方法获取token向量是如何得到的?

通过如下方法得到,实际上获取的是encoder端最后一层编码层的特征向量。

BERT的get_pooled_output方法获取的句子向量是如何得到的?

通过如下方法得到,实际上获取的是[CLS]这个token对应的向量,把它作为整个句子的特征向量。

BERT代码中如何区分是预训练还是微调的,预训练代码是否开源了?
BERT模型开源代码中有一个run_pretraining.py的脚本,该脚本实现了预训练的逻辑。此外,关于下游任务的微调,官方也提供了对应的任务类脚本,如run_classifier.py等。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

草帽夫卡

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值