用Bertviz可视化Attention Weight、Position Embedding

去年Google的BERT在NLP界可谓是掀起了一阵飓风,后续跟进的工作很多,实际中也确实是好用得很。其中github上一个叫Bertviz的项目还挺有意思的,这个项目可以把BERT模型里的self-attention等信息可视化出来,由此窥到一些模型的内在性质。之前看到介绍后简单试过,最近又稍微认真玩了玩。

作者的原文介绍里提到BERT模型里部分attention head的确存在明显的位置或语义特征。本来我想分析下BERT在实际句子里是怎么encode位置信息的,不过搞了一会也没看出个究竟来,毕竟神经网络的可解释性还是难啊……

然后我干脆把输入的3个embedding只留position embedding传进encoder层里,也就是无视了实际句子的具体token只看位置。Bertviz生成的Attention Map结果如下图所示,某种意义上还挺有意思的。




参考资料:
用Bertviz可视化Position Embedding

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值