bert的输出(自用,更新)

# attention_mask=batch_text>0 表示不关注padding的部分,因为padding为0
        bert_out = self.bert.forward(batch_text, attention_mask=batch_text>0)

        # bert[0]是文本的字向量信息,bert[1]是文本的句向量信息
        # bert[0]维度:(句子数/batch_size, 字数, 维度数768)
        # bert[1]维度:(句子数/batch_size, 字数, 维度数768)
        bert_out1, bert_out2 = bert_out[0], bert_out[1]

bert[0]:第一个输出是三维的,是文本的字级别的向量信息。

bert[1]:第二个输出是二维的,是文本的句子级别的向量信息。

举例:截图来自B站

bert的输出是一个包含4个元素的元组,上面只写了前两个,后面的还没用到,用到了再补充。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值