动手学深度学习
文章平均质量分 90
深度学习,经典网络架构
是安澜啊
我想攀登科学的高峰~
邮箱:yinyiyang0401@163.com
展开
-
【动手学深度学习】07 DenseNet稠密网络
00 前言论文:《Densely Connected Convolutional Networks》论文地址:Densely Connected Convolutional Networks | IEEE Conference Publication | IEEE Xplore01 DenseNet是什么?ResNet极⼤地改变了如何参数化深层⽹络中函数的观点。稠密连接⽹络 (DenseNet)某种程度上是 ResNet 的逻辑扩展。回想⼀下任意函数的泰勒展开式(Taylor expa原创 2022-05-02 21:33:38 · 2051 阅读 · 0 评论 -
【动手学深度学习】05 BN(batch normalization)层
目录BN(batch normalization)00前言01为什么需要批量归⼀化层呢?02 如何批量归⼀化层?BN(batch normalization)00前言论文:《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》论文地址:[1502.03167] Batch Normalization: Accelerating Dee...原创 2022-05-02 20:19:48 · 1138 阅读 · 0 评论 -
【动手学深度学习】06-ResNet解析
目录ResNet解析0 前言1 基础2 残差块3 总结参考ResNet解析0 前言论文:《Deep Residual Learning for Image Recognition》论文地址:Deep Residual Learning for Image Recognition | IEEE Conference Publication | IEEE Xplore1 基础经典网络ResNet(Residual Networks)由Kaiming He等人于原创 2022-05-02 17:23:46 · 1484 阅读 · 0 评论 -
【pytorch学习笔记】GoogleNet网络
GoogLeNet结构Inception块GoogLeNet吸收了NiN中串联⽹络的思想,并在此基础上做了改进。这篇论⽂的⼀个重点是解决了什么样⼤小的卷积核最合适的问题。毕竟,以前流⾏的⽹络使⽤小到 1 × 1 ,⼤到 11 × 11 的卷积核。本⽂的⼀个观点 是,有时使⽤不同⼤小的卷积核组合是有利的。在GoogLeNet中,基本的卷积块被称为Inception块(Inception block)。Inception块由四条并⾏路径组成。前三条路径使⽤窗口⼤小为 1 × 1、3 × .原创 2022-05-02 10:26:36 · 492 阅读 · 0 评论 -
【pytorch学习笔记】pytorch 搭建NIN网络+Fashion-Mnist数据集
目录NIN网络pytorch 搭建NIN网络参考NIN网络论文《Network In Network》在传统的CNN模型中,卷积层通过filter进行卷积操作,再使用非线性激活函数进行处理,产生特征映射(feature mapping)。其中,高层卷积层提取到的feature mapping是在底层卷积层提取到的feature mapping的基础上进行再提取得到的,所以如果提高每个卷积层的特征提取能力,那么对于整体的特征能力来说也会有一定提升。CNN的卷积层可以看作是一个广原创 2022-05-01 21:52:37 · 369 阅读 · 0 评论 -
【动手学深度学习】01线性回归模型原理讲解和代码实现(pytorch)
线性回归原理讲解定义回归(regression)是指⼀类为⼀个或多个⾃变量与因变量之间关系建模的⽅法。在⾃然科学和社会科学领域,回归经常⽤来表示输入和输出之间的关系。线性回归假设线性回归基于⼏个简单的假设,假设⾃变量x和因变量y 之间的关系是线性的,即y可以表⽰为x中元素的加权和,这⾥通常允许包含观测值的⼀些噪声; 我们假设任何噪声都⽐较正常,如噪声遵循正态分布。线性回归目标给定训练数据特征X和对应的已知标签y,线性回归的⽬标是找到⼀组权重向量w和偏置b。当给定从X的同分布中取样原创 2021-10-20 18:21:41 · 1570 阅读 · 0 评论