深度学习
文章平均质量分 70
Jeven_Work
这个作者很懒,什么都没留下…
展开
-
使用Sequential函数构造多层感知机(MLP)
一般来说可以用于网络构造的方式有多种,笔者认为使用Sequential函数构造网络比较简单,以此为例进行网络搭建MLP:至少含有一个隐藏层的由全连接层组成的神经网络,且每个隐藏层的输出通过激活函数进行变换实例我们使用Sequential函数来实现构造一个MLP,我们设定我们所要构造的MLP是一个两层的网络,其中输入为X为800个元素,隐藏层有256个单元,输出为3个标签代码实现接下来我们使用Sequential来构造该网络import torchimport numpy as .原创 2021-07-21 11:32:13 · 2118 阅读 · 0 评论 -
几种不同的深度卷积网络的设计(1)——使用重复元素的网络VGG
前言前边几篇有关卷积网络的博客中介绍了最经典的LeNet网络和AlexNet网络,其主要是将其作为经典的网络模型进行介绍,同时对二者进行了对比。对比发现后者比前者的卷积层多三层,且在卷积核、通道数和构造的顺序上存在很大的不同,但上述二种模型其内部并没有过多的说明如何去构造卷积神经网络,本章以后的几篇分别来写一下使用重复元素的网络(VGG)、网络中的网络(NiN)、含并行连接的网络(GoogLeNet)等较为经典的网络模型及其相关的构造原则与构造方式,并通过代码进行实现(代码参考李沐书籍代码进行调试修改)原创 2021-07-30 22:06:32 · 314 阅读 · 0 评论 -
深度卷积神经网络(AlexNet)与卷积神经网络(LeNet)的区别及其代码实现(可直接复制运行)
LeNet在小批量样本的处理中表现尚可,但当样本过于复杂时处理起来结果不尽如人意。AlexNet的出现与2012年,该模型对较大批量数据的处理表现不错,该模型与LeNet具有很高的相似性原创 2021-07-26 18:07:48 · 4820 阅读 · 0 评论