tBERT: Topic Models and BERT Joining Forces for Semantic Similarity Detection

tBERT模型结合了主题模型(如LDA和GSDMM)与BERT,用于增强语义相似度检测。在BERT编码的基础上,引入句子的文档主题和单词主题,通过联合表示和分类层提升模型性能。实验证明,主题模型在处理特定领域词汇和不常见拼写时能提升BERT的表现,尤其在MSRP、Quora和SemEval数据集上取得良好效果。
摘要由CSDN通过智能技术生成
tBERT: Topic Models and BERT Joining Forces for Semantic Similarity Detection
 

  文章发表在ACL2020。下面简单记录一下这篇文章的主要内容。

  1. 模型结构

    如图1所示:
    在这里插入图片描述

    • 首先,用基础的BERT对两个句子 S 1 S_{1} S1 S 2 S_{2} S2进行编码。BERT最后一层的输出作为句子对的表示,用向量 C C
  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值