![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 65
分享深度学习中的一些体会
JJJasmine的H君
研究方向为图像处理和深度学习。
展开
-
Windows系统下运行Swin Transformer实例分割demo
一、基础条件 系统:windows10平台 GPU版本:泰坦X 11G GPU驱动:Driver Version: 441.22 CUDA:10.2二、步骤 1.安装VS2019,默认安装即可;(https://visualstudio.microsoft.com/zh-hans/downloads/) 2.打开anaconda power shell; 3.创建Swin的环境:...原创 2021-05-25 21:19:21 · 2418 阅读 · 3 评论 -
PyTorch(叁)卷积神经网络之LeNet(1)
一、卷积层和池化层的作用 卷积层的作用是从输入的图片中提取特征,如边缘、点和块。池化层的作用是为了缓解卷积层对位置的过度敏感性。二、LeNet(1)的模型介绍LeNet模型一共有7层(不包括输入层),具体的介绍如下: Input层:输入1x32x32的图片; C1:C1是一个卷积层,使用6个大小为5x5的卷积核进行卷积计算,然后使用sigmoid激活函数,输出特征图大小为6x28x28; S2:S2是一个池化层,使用卷积核为2x2的卷积核进行最...原创 2020-09-26 16:25:56 · 291 阅读 · 0 评论 -
深度学习:神经网络中为什么需要使用激活函数?(超详细)
一、百度百科 我们先看下百度百科的解释: 如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机(Perceptron)。如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。二、举例说明 为了很好的解释为什么需要使用激活函数,我接下来以一个带有一个隐含层的感知机来进行说明,希望通过这种方式可以让大家通俗的...原创 2020-09-18 17:04:56 · 11682 阅读 · 0 评论 -
PyTorch(贰):在pytorch中定义模型的方法(超全)
一、前言 如果我们单纯使用python+numpy的方式来定义一个神经网络模型的话,当仅仅是实现一个线性回归等小模型时,并没有什么不可,但是当要实现的模型比较复杂的时候,比如需要定义很多层不同结构的模型时,就会显得很复杂。在pytorch中提供的大量预定义的层,我们只需要关注使用哪些层来进行构造网络。定义模型的方法大概可以分为两大类。二、继承nn.Module 实际使用中,最常用的做法是继承nn.Module,撰写自己的网络/层。使用这种方法一般需要包括一些层以及返回...原创 2020-09-14 09:37:27 · 683 阅读 · 0 评论 -
PyTorch(壹):为什么pytorch在反向传播之前要把梯度清零(超详细)
一、为什么要进行梯度清零 因为grad在反向传播的过程中是累加的,也就是说上一次反向传播的结果会对下一次的反向传播的结果造成影响,则意味着每一次运行反向传播,梯度都会累加之前的梯度,所以一般在反向传播之前需要把梯度清零。 清零使用的方法是.grad.data.zero_()二、代码实例 下面我们通过代码来了解一下进行梯度清零和梯度不清零的结果2.1数据准备工作:,import torchx=torch.ones(2,2,requires_...原创 2020-09-13 20:30:20 · 6967 阅读 · 3 评论 -
深度神经网络(DNN)正向传播与反向传播推导(通俗易懂)
一、前言 我在之前的博客里面介绍过浅层的神经网络,现在就从浅层神经网络出发,介绍深度神经网络(DNN)的正向传播和反向传播。希望网友们看本博客之前需要对神经网络有个简单的了解,或者可以看博客初探神经网络(深度学习入门)进行了解学习。 本文将结合吴恩达的视频、作业及其个人的理解进行写作,如有不对的地方,还望指正。二、DNN的模型 神经网络有一个输入层、多个隐含层和一个输出层组成。每个隐含层都执行了线性操作和激活函数操作。三、DNN的前向传播...原创 2020-08-18 11:08:18 · 2337 阅读 · 0 评论 -
初探神经网络(深度学习入门)
参考资料:吴恩达深度学习、维基百科、《深度学习》(花书)原创 2020-08-03 19:50:03 · 1664 阅读 · 0 评论