![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
搭建神经网络
文章平均质量分 86
Flying Bulldog
致力于研究计算机视觉、图像处理的一位帅气学者!
展开
-
断点续训 & Pytorch 和 Tensorflow 框架 & VGG16 模型 & 猫狗大战 & 鸢尾花分类
由于目前最流行的深度学习的框架是 Pytorch 和 Tensorflow,故此文章针对这两种框架实现代码的断点续训。为了方便一键运行程序,运行程序之前,需要从 Kaggle 数据集网站上面下载 ‘猫狗大战’ 的数据集 Cat and Dog | Kaggle,也可以用自己的数据集,或者可以调用框架中封装好的函数,自动的下载数据集,但是这种方法不提倡,最好还是用自己的数据集。本文代码为纯实战代码,注释都在代码当中,希望对你有所帮助。...原创 2022-07-08 21:13:53 · 795 阅读 · 0 评论 -
Dropout层、BN层、Linear层 & 神经网络的基本组成
图1 卷积网络中的 layers承接上三篇博客:卷积层(空洞卷积对比普通卷积)、激活函数层、池化层 & 感受野目录(1)Dropout层(2)BN层(BatchNormal)(3)全连接层(1)Dropout层在深度学习中,当参数过多而训练样本又比较少时,模型容易产生过拟合现象。过拟合是很多深度学习乃至机器学习算法的通病,具体表现为在训练集上预测准确率高,而在测试集上准确率大幅下降。2012 年,Hinton等人提出了Dropout算法,可以比较有效地缓解过拟合现..原创 2022-05-27 23:23:13 · 4586 阅读 · 0 评论 -
池化层(pooling layer) & 感受野(Receptive Field) & 神经网络的基本组成
目录(1)本文涉及的函数(2)池化层(3)感受野(4)代码示例(含注释)承接上两篇博客:卷积层(空洞卷积对比普通卷积)、激活函数层(1)本文涉及的函数import torch import torch.nn as nn from torch import autogradnn.MaxPool1d # 1 维最大池化(max pooling)操作 nn.MaxPool2d ...原创 2022-05-26 12:57:56 · 4401 阅读 · 0 评论 -
激活函数层 && 神经网络的基本组成 && Sigmoid、ReLU及Softmax函数
神经网络如果仅仅是由线性的卷积运算堆叠组成,则其无法形成复杂的表达空间,也就很难提取出高语义的信息,因此还需要加入非线性的映射,又称为激活函数,可以逼近任意的非线性函数,以提升整个神经网络的表达能力。在物体检测任务中,常用的激活函数有Sigmoid、 ReLU及Softmax函数。目录一、常见的激活函数(1)Sigmoid函数(2)ReLU函数(3)Leaky ReLU函数(4)Softmax函数二、Pytorch官方文件激活函数总结(1)涉及的激活函数,以及公式..原创 2022-05-25 23:40:38 · 4124 阅读 · 0 评论 -
神经网络的基本组成之卷积层(Conv Layer)&& 利用 Pytorch 搭建神经网络 && 空洞卷积对比普通卷积
图1 卷积网络中的 layers目录(1)卷积层(2)本文章设计的函数列表,以及函数的参数解读(3)代码示例(4)空洞卷积(1)卷积层卷积本是分析数学中的一种运算,在深度学习中使用的卷积运算通常是离散的。作为卷积神经网络中最基础的组成部分,卷积的本质是用卷积核的参数来提取数据的特征,通过矩阵点乘运算与求和运算来得到结果。如图2 所示为一个基本二维卷积的运算过程,公式为y=ωx+b。这 里的特征图(x)大小为1×5×5,即输入通道数为1,卷积核(ω)的大小为3×3,偏置(...原创 2022-05-24 23:58:07 · 2273 阅读 · 0 评论