BERT的get_sequence_output方法获取token向量是如何得到的?
通过如下方法得到,实际上获取的是encoder端最后一层编码层的特征向量。
BERT的get_pooled_output方法获取的句子向量是如何得到的?
通过如下方法得到,实际上获取的是[CLS]这个token对应的向量,把它作为整个句子的特征向量。
BERT代码中如何区分是预训练还是微调的,预训练代码是否开源了?
BERT模型开源代码中有一个run_pretraining.py的脚本,该脚本实现了预训练的逻辑。此外,关于下游任务的微调,官方也提供了对应的任务类脚本,如run_classifier.py等。