人工智能(深度学习)
文章平均质量分 93
Silentambition
22计算机硕士,目前在学习深度学习,cv方向
展开
-
Transformer系列学习笔记(mae+bert+vit等等)
假设输入是n个字,n个字进入embedding后输出为mn,即每个字用一个m长的向量表示位置编码则是对mn中的每个数计算得到一个也是长为mn的输出,再于词向量相加即可,所以输出还是mn在自注意力中,矩阵乘法能够的到相关性的原因在于向量点乘计算在空间上算的是位置,所以自注意力其实是得到了每个词的自注意力系数总模型,其中一些跳跃的箭头指残差连接,feed forward就是一个mlp。原创 2023-10-27 21:38:51 · 409 阅读 · 1 评论 -
卷积神经网络系列学习笔记yolo+R-CNN+GAN等等
卷积:对全连接层使用平移不变和局部性得到卷积层感受野:卷积核与输入矩阵运算的子矩阵就是感受野(特征图上的某个点能看到的输入图像的区域,即特征图上的点是由输入图像中感受野大小区域的计算得到的)原创 2023-10-27 21:33:43 · 489 阅读 · 1 评论 -
深度学习编程代码笔记VIT+MAE+RESNET18+数据集处理等
提示:代码笔记,若有问题欢迎大家评论指出。原创 2023-05-25 14:01:25 · 590 阅读 · 2 评论 -
深度学习基础笔记(MLP+CNN+RNN+Transformer等等)
感知机+多层感知机+卷积神经网络+循环神经网络+注意力机制等等原创 2022-11-25 11:24:44 · 2640 阅读 · 0 评论