- 博客(5)
- 收藏
- 关注
原创 几种不同的深度卷积网络的设计(1)——使用重复元素的网络VGG
前言前边几篇有关卷积网络的博客中介绍了最经典的LeNet网络和AlexNet网络,其主要是将其作为经典的网络模型进行介绍,同时对二者进行了对比。对比发现后者比前者的卷积层多三层,且在卷积核、通道数和构造的顺序上存在很大的不同,但上述二种模型其内部并没有过多的说明如何去构造卷积神经网络,本章以后的几篇分别来写一下使用重复元素的网络(VGG)、网络中的网络(NiN)、含并行连接的网络(GoogLeNet)等较为经典的网络模型及其相关的构造原则与构造方式,并通过代码进行实现(代码参考李沐书籍代码进行调试修改)
2021-07-30 22:06:32 316
原创 深度卷积神经网络(AlexNet)与卷积神经网络(LeNet)的区别及其代码实现(可直接复制运行)
LeNet在小批量样本的处理中表现尚可,但当样本过于复杂时处理起来结果不尽如人意。AlexNet的出现与2012年,该模型对较大批量数据的处理表现不错,该模型与LeNet具有很高的相似性
2021-07-26 18:07:48 4846
原创 卷积神经网络(LeNet)的代码实现及模型预测
LeNet的简要介绍卷积神经网络(LeNet)是1998年提出的,其实质是含有卷积层的一种网络模型。该网络的构成:该网络主要分为卷积层块和全连接层块两个部分。卷积层块的基本单位是“卷积层+最大池化层”,其中卷积层主要用来识别图像的空间模式,后接的最大池化层主要用于降低卷积层对于位置的敏感性。全连接层用于完成最后的分类。本文以教材中最常见的LeNet-5为例进行代码实现及模型预测,该网络模型图如下图所示。LeNet-5网络结构LeNet的代码实现及模型预测模型组成:本文构建的L
2021-07-22 16:01:31 5867 2
原创 使用Sequential函数构造多层感知机(MLP)
一般来说可以用于网络构造的方式有多种,笔者认为使用Sequential函数构造网络比较简单,以此为例进行网络搭建MLP:至少含有一个隐藏层的由全连接层组成的神经网络,且每个隐藏层的输出通过激活函数进行变换实例我们使用Sequential函数来实现构造一个MLP,我们设定我们所要构造的MLP是一个两层的网络,其中输入为X为800个元素,隐藏层有256个单元,输出为3个标签代码实现接下来我们使用Sequential来构造该网络import torchimport numpy as .
2021-07-21 11:32:13 2124
原创 解决Jupter notebook在图的绘制/加载中出现服务器挂掉的问题
问题在使用Jupter notebook时,运行其他代码还好,一旦涉及到图的绘制问题就一直提示服务器似乎挂掉运行下列代码:import torchimport numpy as npimport sysimport d2lzh_pytorch as d2l# 定义一个作图函数def semilogy(x_vals, y_vals, x_label, y_label, x2_vals=None, y2_vals=None, legend=None, figs
2021-07-19 15:32:32 1096 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人