BERT微调—关系分类任务

概念

关系分类任务就是从非结构化文本中抽取出结构化知识;具体为:区分出头实体与尾实体之间的语义关系,比如:
在这里插入图片描述
给两个实体,判断关系

如何实现

方法一
将句子输入到BERT模型中,然后分别拿到头实体与尾实体的向量表征(实体多个词的表征经过pooling得到),然后将头尾实体向量拼接,再经过线性层分类
在这里插入图片描述
将两个实体,经过编码器编码后,输入线性层进行分类

方法二:
BERT的embedding层中加入关系位置编码。在方法一的基础上加上关系位置编码,告诉BERT模型何处为头实体何处为尾实体。
在这里插入图片描述

方法三:
在句子中加入新定义的字符(unusedtoken),标识出头尾实体位置;
在这里插入图片描述


感觉都是,只用两个实体的编码后的向量就好了,唯一的区别在于如何告知计算机,哪个是头实体,那个是尾实体。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值