![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
timetime88
这个作者很懒,什么都没留下…
展开
-
如何理解贝叶斯公式?
如何理解贝叶斯公式?参考:https://www.zhihu.com/question/51448623转载 2021-03-20 23:18:41 · 152 阅读 · 0 评论 -
ResNet详解与分析
ResNet详解与分析转载:https://www.cnblogs.com/shine-lee/p/12363488.html转载 2021-03-14 23:34:21 · 127 阅读 · 0 评论 -
吃透空洞卷积(Dilated Convolutions)
吃透空洞卷积(Dilated Convolutions)转载:https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247524546&idx=2&sn=0a2f069e07f2e9e964a9d53a5a807033&chksm=ec1c8d3bdb6b042da38b1c96b2a489d388dc9e6626713ba8e1b6e911fdd82223cc6ef923737f&mpshare=1&转载 2020-12-05 16:42:08 · 197 阅读 · 0 评论 -
maxpooling主要有两大作用
maxpooling主要有两大作用invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度)保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力(1) translation invariance:这里举一个直观的例子(数字识别),假设有一个16x16的图片,里面有个数字1,我们需要识别出来,这个数字1可能写的偏左一点(图1),这个数字1可能偏右一点(图2),图1到图2相当于向右平移了一个单位,但是转载 2020-10-30 12:00:41 · 712 阅读 · 0 评论 -
Batch Normalization
Batch Normalization 一.为什么需要BN? ![在这里插入图片描述](https://img-blog.csdnimg.cn/20200919122143879.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3RpbWV0aW1l...原创 2020-09-19 12:41:51 · 103 阅读 · 0 评论 -
1*1卷积核
11卷积核一、1x1卷积的作用?1改变数据维度(存储方式)因为11卷积不改变图形的大小,当对同一个特征图用数值不同的11的卷积核时,会得到到不同的输出,当同时使用多个卷积核时就可以改变模型的维度,比如,一张500 * 500且厚度100 的图片在20个卷积核上做11的卷积,那么结果的大小为50050020。2.增加模型的深度减少参数量3增加非线性通常情况下,在构建网络模型时会使用激活函数,当使用1*1的卷积核来加深了网络模型,使用的激活函数的次数就会变多,激活函数大多是非线性的(有利于分离转载 2020-09-17 21:25:23 · 334 阅读 · 1 评论 -
Pytorch中的Batch Normalization操作
Pytorch中的Batch Normalization操作Batch Normalization这里只探究其具体运算过程,我们假设在网络中间经过某些卷积操作之后的输出的feature map的尺寸为4×3×2×2,4为batch的大小,3为channel的数目,2×2为feature map的长宽整个BN层的运算过程如下图上图中,batch size一共是4, 对于每一个batch的feature map的size是3×2×2,对于所有batch中的同一个channel的元素进行求均值与方差,比如上转载 2020-09-17 19:15:08 · 599 阅读 · 0 评论 -
Batch normalization理解
Batch normalization理解转载:https://www.jianshu.com/p/86530a0a3935转载 2020-09-15 23:32:56 · 68 阅读 · 0 评论 -
PYTORCH搭建MOBILENETV2
PYTORCH搭建MOBILENETV2转载:https://www.freesion.com/article/596734855/转载 2020-09-12 21:10:48 · 246 阅读 · 0 评论 -
https://www.zhihu.com/question/20994432
数学期望和均值的区别,直观的理解:转载知乎:Jean同学的回答转载 2020-09-11 19:24:15 · 981 阅读 · 0 评论 -
卷积核与特征提取
卷积核与特征提取转载:https://www.cnblogs.com/zongfa/p/9130167.html转载 2020-09-03 18:09:49 · 1202 阅读 · 0 评论 -
代码实现卷积操作
代码实现卷积操作转载:https://blog.csdn.net/qq_41398808/article/details/97925070转载 2020-09-03 18:08:51 · 431 阅读 · 0 评论 -
卷积神经网络之卷积计算、作用与思想
卷积神经网络之卷积计算、作用与思想转载:https://www.cnblogs.com/shine-lee/p/9932226.html转载 2020-09-03 18:06:52 · 155 阅读 · 0 评论 -
GD(梯度下降)
GD(梯度下降)一.梯度下降分类1.批量梯度下降(Batch Gradient Descent)——BGD2.随机梯度下降(Stochastic Gradient Descent)——SGD3.小批量梯度下降(Mini-Batch Gradient Descent)——MBGD下面以线性回归算法来对三种不同梯度下降法进行理解:假设线性回归函数(前向传播):对应的损失函数(均方误差):二.批量梯度下降(BGD)思想:每一次的参数更新都用到了所有的训练样本数据;1.损失函数对求偏导,求梯原创 2020-08-29 00:03:59 · 663 阅读 · 0 评论 -
批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解
批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解转载:https://www.cnblogs.com/lliuye/p/9451903.html转载 2020-08-27 17:22:53 · 90 阅读 · 0 评论 -
范数的理解
范数的理解转载知乎:https://zhuanlan.zhihu.com/p/26884695转载 2020-08-25 11:29:01 · 252 阅读 · 0 评论 -
线性可分性、线性不可分性的定性理解
线性可分性、线性不可分性的定性理解1.线性可分是指能使用线性组合组成的超平面将两类集合分开,线性不可分则没有能将两类集合分开的超平面2.线性可分的特点:低维转高维,还能保持原来的线性可分性的特点;但是高维转低维就不能保持原来的线性可分性3.线性不可分的特点:只要是线性变化到高维或者是低维,都不能是线性可分;但是经过一次非线性变化+仿射变换后或者多次就能实现线性可分。(这里可以运用于神经网络)转载:https://www.cnblogs.com/MyUniverse/p/10147187.html转载 2020-08-20 17:03:20 · 1703 阅读 · 0 评论 -
机器学习识别图片的基本原理
机器学习识别图片的基本原理转载:https://www.jianshu.com/p/6b82a0cd992d转载 2020-08-19 22:49:14 · 1435 阅读 · 0 评论