深度学习卷积网络架构
zouxiaolv
踏实、稳重、前行
展开
-
保姆级讲解Transformer
保姆级讲解Transformer_WGS.的博客-CSDN博客转载 2022-11-22 16:58:09 · 98 阅读 · 0 评论 -
多头注意力机制
动手学深度学习(五十)——多头注意力机制_留小星的博客-CSDN博客_多头注意力机制多头注意力机制的理解_Takoony的博客-CSDN博客_多头注意力多头注意力机制的概念、具体流程以及相关代码_mjssdhy的博客-CSDN博客_多头注意力原创 2022-10-29 15:10:44 · 501 阅读 · 0 评论 -
网络设计模式总结如下几点
Representative network design patterns include: (i) Symmetric high-to-low and low-to-high processes. Hourglass and its follow-ups [40, 14, 77, 31] design the low-to-high process as a mirror of the hig...原创 2019-04-16 09:39:09 · 331 阅读 · 0 评论 -
Siamese network之网络编写——pytorch
import torchimport torch.nn as nnimport torch.nn.functional as Fclass SiameseNet(nn.Module): """ A Convolutional Siamese Network for One-Shot Learning [1]. Siamese networts learn image representations via a supervised metric-based app.转载 2020-11-05 21:24:10 · 545 阅读 · 0 评论 -
CNN 模型所需的计算力(flops)和参数(parameters)数量是怎么计算的
看到有人对flops有疑惑,先捋清这个概念。FLOPS:注意全大写,是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。FLOPs:注意s小写,是floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。网上打字很容易全小写,造成混淆,本问题针对模型,应指的是FLOPs。————————————————————————————转载 2020-10-28 11:12:42 · 1530 阅读 · 0 评论 -
Rotate to Attend: Convolutional Triplet Attention Module
import torchimport mathimport torch.nn as nnimport torch.nn.functional as Fclass BasicConv(nn.Module): def __init__(self, in_planes, out_planes, kernel_size, stride=1, padding=0, dilation=1, groups=1, relu=True, bn=True, bias=False): ...原创 2020-10-27 16:19:27 · 752 阅读 · 0 评论 -
训练神经网络中最基本的三个概念:Epoch, Batch, Iteration
2. 换算关系实际上,梯度下降的几种方式的根本区别就在于上面公式中的 Batch Size不同。*注:上表中 Mini-Batch 的 Batch 个数为 N / B + 1 是针对未整除的情况。整除则是 N / B。3. 示例CIFAR10 数据集有 50000 张训练图片,10000 张测试图片。现在选择 Batch Size = 256 对模型进行训练。每个 ...转载 2019-11-12 14:30:05 · 257 阅读 · 0 评论 -
图卷积神经网络
https://blog.csdn.net/chensi1995/article/details/77232019转载 2019-03-19 09:14:33 · 3249 阅读 · 0 评论