build_transformer_model如果不返回keras的bert模型返回的是什么?

build_transformer_model

还有两个问题:
1.如果不返回keras的bert模型返回的是什么?
bert = build_transformer_model(
config_path=config_path,
checkpoint_path=checkpoint_path,
return_keras_model=False,
)
2.在关系抽取里特意的上了mask防止那部分信息被回传,但是ner的代码包括这篇文章都padding了。却没有上padding的原因是什么?

1.返回bert4keras自带的模型基类。这些只需要看看bert4keras的源码就知道了,没必要问。
2.不知道你说什么,请表达清楚意思

苏老师,有这么一种说法,取bert的倒数第二层的输出是比较好的,因为最后一层的输出和最后的目标太近,前面的层没有学习到抽象的语义,https://blog.csdn.net/u012526436/article/details/87697242 可以让这个模型抽取向量能到任意制定层吗

自己实现了一个bert4keras - 科学空间|Scientific Spaces

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值