自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 理解Transformer的self-attention中的view()函数

可以看到,c1c2,c4c5,c7c8,c10c11这几个被割开的词向量在新的tensor中还是在同一sequence中处理,没有达到多头注意力在不同表示子空间学习的目的。可以看到,被分割的词嵌入向量分配到不同的sequence中,达到了多头注意力在不同表示子空间学习的目的。如果query的形状是(B,T,C),在经过这句代码处理会变成(B*H,T,C/H),H为头数。同样可以把query的形状变成(B*H,T,C/H)。假设输入张量为query的形状是(2,3,C)自注意力机制的多头处理是这样实现的。

2023-04-28 23:08:35 117 1

原创 批量将20张图片的二进制码转成verilog测试文件

在coe子文件夹创建in.txt,out.txt,然后把20张图片的二进制码(由13-out-img.py输出)粘贴进in.txt,运行代码就可以在out.txt得到测试代码,粘贴进Test_MNIST.v即可仿真。基于皮皮宽的https://blog.csdn.net/kuan__/article/details/122769688#comments_26259977。

2023-04-28 11:42:52 205 2

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除