卷积神经网络
zouxiaolv
踏实、稳重、前行
展开
-
多头注意力机制
动手学深度学习(五十)——多头注意力机制_留小星的博客-CSDN博客_多头注意力机制多头注意力机制的理解_Takoony的博客-CSDN博客_多头注意力多头注意力机制的概念、具体流程以及相关代码_mjssdhy的博客-CSDN博客_多头注意力原创 2022-10-29 15:10:44 · 501 阅读 · 0 评论 -
GoogLeNet系列解读(转载)
https://blog.csdn.net/shuzfan/article/details/50738394转载 2018-12-10 21:15:50 · 220 阅读 · 0 评论 -
训练神经网络中最基本的三个概念:Epoch, Batch, Iteration
2. 换算关系 实际上,梯度下降的几种方式的根本区别就在于上面公式中的 Batch Size不同。 *注:上表中 Mini-Batch 的 Batch 个数为 N / B + 1 是针对未整除的情况。整除则是 N / B。 3. 示例 CIFAR10 数据集有 50000 张训练图片,10000 张测试图片。现在选择 Batch Size = 256 对模型进行训练。 每个 ...转载 2019-11-12 14:30:05 · 257 阅读 · 0 评论 -
卷积神经网络——输入层、卷积层、激活函数、池化层、全连接层(转载)
https://blog.csdn.net/yjl9122/article/details/70198357 https://www.cnblogs.com/neopenx/p/4453161.html(激活函数进步详解) https://blog.csdn.net/glory_lee/article/details/77899465 最容易理解的对卷积(convolution)的解释(ht...转载 2018-12-11 11:27:38 · 1538 阅读 · 0 评论 -
深度学习(二十九)Batch Normalization 学习笔记
https://blog.csdn.net/hjimce/article/details/50866313转载 2018-12-11 16:56:44 · 160 阅读 · 0 评论