BERT Sentence embedding基于bert的句子级别的向量表示

【搬运工】在某些情况下,比如我最近遇到的句子级别的序列标注任务,使用BERT得到句向量,是一个可以快速跑通baseline模型的选择,如何使用预训练bert表征句子向量,我自己常用的方法有以下三种

1. [CLS] token对应的encoding

最原始的方法,使用模型的[CLS] token对应的encoding,可以看huggingface的transformers首页的quick tour有简单的example,极易上手
https://github.com/huggingface/transformers

2. bert-as-service

速度超快!!
https://github.com/hanxiao/bert-as-service

3. sentence-bert(sentence-transformer)

2019年EMNLP的一篇文章,使用siamese network的框架来训练bert,其中尝试使用各种不同手段从隐层状态得到句向量,全局池化平均等
https://github.com/UKPLab/sentence-transformers

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值