神经网络与深度学习理论基础
骚年,你渴望力量嘛?
在读研究生,初来乍到,多多指教。
展开
-
神经网络与深度学习----阅读笔记
目录1. 感知机perceptrons2. 神经元Sigmoid neurons1. 感知机perceptrons输入输出为0或12. 神经元Sigmoid neuronsSigmoid neurons are similar to perceptrons, but modified so that small changes in their weights and bias cause only a small change in their output输入输出.原创 2021-03-24 22:07:37 · 186 阅读 · 1 评论 -
卷积神经网络知识点总结
卷积提取特征池化压缩特征在一块5x5的小区域上,窗口大小为3x3的卷积核在上面移动,对其进行特征提取,得到3x3大小的特征图。原创 2020-11-22 21:54:15 · 1088 阅读 · 1 评论 -
卷积神经网络参数数量计算
假设卷积核的大小为 k*k, 输入channel为M, 输出channel为N。(1)bias为True时:则参数数量为:k×k×M×N + N(bias的数量与输出channel的数量是一样的)(2)bias为False时:则参数数量为:k×k×M×N(3)当使用BN时,还有两个可学习的参数α和β,参数量均为N则参数数量为:k×k×M×N + 3×N...原创 2020-11-03 13:15:06 · 734 阅读 · 0 评论 -
Pascal VOCdata数据集读取(pytorch)
目录数据集介绍数据集读取加载带有标签数据的图片数据集介绍数据集下载链接下载完成后的数据集如图所示:文件夹结构└── VOCdevkit #根目录 └── VOC2007 #不同年份的数据集,这里只下载了2007的 ├── Annotations #存放标签文件,与JPEGImages中的图片一一对应 ├── ImageSets #该目录下存放的都是txt文件,txt文件中每一行包含一个图片...原创 2020-10-13 12:16:37 · 3053 阅读 · 0 评论 -
CNN感受野最全计算公式
感受野:感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入图上的区域。如图所示计算公式(前向计算公式):Lk:表示第k层的感受野Lk-1:表示第k-1层的感受野Fk:表示第k层卷积核的大小Si:表示第i层的步长一般来说第一层感受野为该层卷积核的大小。感受野计算不考虑padding参数。下图为感受野反向计算公式。...原创 2020-10-11 09:53:22 · 7878 阅读 · 1 评论 -
ResNet50 复现笔记(pytorch 版本)
目录1.resnet 简述2.网络结构3.训练模型1.resnet 简述Resnet是残差网络(Residual Network)的缩写,该系列网络广泛用于目标分类等领域以及作为计算机视觉任务主干经典神经网络的一部分,典型的网络有resnet50, resnet101等。Resnet网络证明网络能够向更深(包含更多隐藏层)的方向发展。原文链接:https://arxiv.org/abs/1512.033852.网络结构网络结构如图,resnet50分为conv1、con.原创 2020-10-08 19:27:14 · 1995 阅读 · 1 评论 -
卷积神经网络卷积层池化层输出计算公式
1. 卷积层:输出矩阵大小为x、输入矩阵大小为n、卷积核大小为f、步长为s、padding 填充为px=(n-f+2p)/s +1所得x的数值如果为小数,则向下取值2.池化层:输出矩阵大小为x1x=(n-f)/s +1所得x的数值如果为小数,则向下取值。因为大多数池化层没有padding...原创 2020-10-08 14:49:45 · 8537 阅读 · 0 评论 -
numpy实现神经网络-反向传播
前向传递输入信号直至输出产生误差,反向传播误差信息更新权重矩阵反向传播一文:https://www.jianshu.com/p/964345dddb70原创 2020-10-03 18:23:09 · 1018 阅读 · 0 评论