Self Attention-->Transform-->BERT

数据预处理

对于图像:

一个pixel可以看做一个三维向量,这样就转成了vector

Self Attention

原理:

Self attention的input是一串的vector,而每一个输出都会考虑到所有的输入,以b1为例,要想计算b1,首先要计算每一个input向量与a1的关联程度阿尔法,关联越强也就是说这个向量对输出b1是有关系的,计算阿尔法可以通过很多方法,例如点积来计算,把输入的两个向量,乘上两个不同的矩阵,得到q和k这两个向量,再把q和k这两个向量做点积就得到了阿尔法,

1.输入多少vector就输出多少vector,箭头只是表示每一个输出都考虑到了整个input sequence

 2.第一步,考虑单个输入向量与其他输入向量之间的关联程度

3.如何计算上图中的阿尔法?

 注意自己与自己也要算。

4.根据attention分数抽取重要资讯

 如果某个关联系越强,得到的阿尔法分数就越高,最后加权求和后就越接近某个vi

5.添加位置信息

矩阵表示法

1.计算QKV

W是network 的参数,是被learn的

2.计算阿尔法

 k转置的原因:

 3.算出b

 4.总结

 MutiHead self attention

 给多个初始W,分组个算各的

Seq2Seq

输出不知道多少个就是seq2seq问题

1.Encoder

Encoder展开

 在Transfomer中实际上

CNN与自注意力的区别

BERT

1.pre-train和fine tune

 2.为什么work

3.BERT结构 

参考资料:

https://www.youtube.com/watch?v=hYdO9CscNes&list=PLJV_el3uVTsMhtt7_Y6sgTHGHp1Vb2P2J&index=10

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不琂而玉

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值