学习记录
文章平均质量分 87
K_soo
自信
展开
-
Self-Attention (自注意力机制)
本篇文章是机器学习的笔记(简化版)原创 2024-06-10 12:52:01 · 871 阅读 · 0 评论 -
关于CNN卷积的一些知识
问题最开始出现在某篇论文中写的The Transformer Architecture部分的不理解,具体内容如下这段中,提到了:在这篇论文中采用卷积神经网络获取输入图像的特征图因为看这篇文章之前,对于CNN不是很了解,所以对于这些参数以及具体的工作原理都不清楚,于是看了李宏毅老师的机器学习课程,(简化版)学习笔记如下:课程链接附上:李宏毅机器学习 ①在CNN中,有很多神经元(Neuron),每一个神经元需要关注的区域叫receptive field,它的高和宽就叫做kernel_size(也就是等于卷积核的原创 2024-06-08 16:18:41 · 561 阅读 · 0 评论 -
记录看论文所遇到的不懂的名词(1)
仅为学习记录原创 2024-05-10 16:20:59 · 347 阅读 · 0 评论