- 博客(16)
- 资源 (5)
- 收藏
- 关注
原创 吴恩达深度学习03-2.2 清楚标注错误的数据
目录训练集标注错误随即错误规律性错误测试集或者验证集出现错误其他需要注意的原则训练集标注错误有时候,我们的训练集数据标签并不是正确的,而是存在一些错误的标签的,对于其不同的错误情况,我们有不同的处理措施。随即错误即训练集中标注错误的数据是随机的,没有特定的规律可言,在这种情况下,我们可以不做处理。因为神经网络对于随机误差的鲁棒性是很高的。规律性错误这种情况往往是由于某种有规律的错误标注导致的。举个例子,倘若你的神经网络要识别一张图像中有没有猫,而训练集中所有图像中有白色的狗的图像都被
2020-12-23 09:47:20 1265 1
转载 不变性(invariance)详细解释
原文:https://blog.csdn.net/weixin_39568744/article/details/82250663?utm_medium=distribute.pc_relevant.none-task-blog-searchFromBaidu-2.control&depth_1-utm_source=distribute.pc_relevant.none-task-blog-searchFromBaidu-2.controlinvariance(不变性),这种不变性包括tran
2020-12-17 20:18:42 2860
转载 池化层的作用理解与总结
原文:https://blog.csdn.net/weixin_42193719/article/details/103860206池化层的作用总结:在卷积神经网络中通常会在相邻的卷积层之间加入一个池化层,池化层可以有效的缩小参数矩阵的尺寸,从而减少最后连接层的中的参数数量。所以加入池化层可以加快计算速度和防止过拟合的作用。池化的原理或者是过程:pooling是在不同的通道上分开执行的(就是池化操作不改变通道数),且不需要参数控制。然后根据窗口大小进行相应的操作。 一般有max pooling、
2020-12-17 20:09:48 7954
转载 全连接层的作用解析
作者:魏秀参链接:https://www.zhihu.com/question/41037974/answer/150522307来源:知乎全连接层到底什么用?我来谈三点。全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。在实际使用中,全连接层可由卷积操作实现:对前层是全连接的全连接层可以转化为卷积核.
2020-12-17 19:52:46 1706
转载 feature map的理解
作者:itsAndy链接:https://www.zhihu.com/question/308021221/answer/1431405289来源:知乎feather map的理解在cnn的每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起(像豆腐皮一样),其中每一个称为一个feature map。feather map 是怎么生成的?输入层:在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿.
2020-12-17 11:26:14 1021 2
原创 吴恩达深度学习02-3.567 Batch Normalization(BN)
目录前言why BN?Internal Covariate ShiftBN起源具体操作白化使之趋于非线性将BN拟合进神经网络前言最近在着手一项课设,在使用深度学习FCN网络的时候遇到了BN的问题,正巧的是,我同时在吴恩达老师的深度学习课程上看到了有关BN的问题,同时BN也是挺有意思、挺重要的知识。于是写下这篇文章来记录有关BN的学习过程。本文综合了吴恩达老师的深度学习课程以及诸多博客的优秀见解,在此致谢。why BN?Internal Covariate Shift首先介绍一个概念——ic
2020-12-14 11:25:39 428
转载 归一化输入特征加快模型训练
转自:https://blog.csdn.net/weixin_42555985/article/details/1062784731.9 归一化输入 Normalizing inputs训练NN,其中一个加速训练的方法就是归一化输入。如上图,数据集的散点图。假设一个训练集有两个特征,输入特征为2维,归一化需要两个步骤:step1:零均值μ = 1 m ∑ i = 1 m x ( i ) \mu =\frac 1m\sum_{i=1}^mx^{(i)}μ=m1i=1∑mx(i)向量
2020-12-14 09:50:20 716
原创 pytorch保存模型后加载模型遇到的大坑
目录保存模型model.eval()保存模型保存模型的方式主要有两种, 一种是全量保存,另一种是只保存网络结构的参数(注意,不保存网络结构,只保存参数,所以在加载模型的时候需要先设置好一个模型网络)#1.保存整个网络torch.save(model_object, 'model.pth')#1.1加载参数model = torch.load('model.pth')#2.保存参数torch.save(model_object.state_dict(), 'params.pth')#
2020-12-12 22:37:24 33525 26
转载 【转】torchvision.transforms.Normalize()解释
原文:https://blog.csdn.net/xys430381_1/article/details/85724668也许你经常会在PIL.Image转为tensor时看到这么一段数据预处理代码:im_tfs = tfs.Compose([ tfs.ToTensor(), tfs.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]) data = im_tfs(data)下面就是关于
2020-12-10 21:48:21 6038
转载 【转】图像卷积后的大小计算公式
原文:https://blog.csdn.net/aron_conli/article/details/95175757?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.control&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.control.
2020-12-09 11:29:35 1804
原创 吴恩达深度学习02-3.2 为超参数选择合适的范围
目录选择范围解决措施选择范围超参数的范围选择好像是一件很简单的事情,给定我一个参数的区间,对区间内的点挨个试不就知道了?事实上,并不是这样的,对于不同的参数,上述措施,并不总是对的。对于上面两个参数:隐藏单元的数量和层数,采用均匀取值的方法貌似是合理的。但是对于另一些参数,上述策略是不合理的,例如学习率α倘若学习率取值范围是0.0001到1,那么很显然,在这个区间上,有约90%的资源用在0.1到1这个区间上,只有约10%的资源在0.0001到0.1这个区间上。但事实上,对于学习率这个特殊
2020-12-08 21:17:46 723 3
原创 吴恩达深度学习02-3.1 调试处理
目录超参数重要程度调参策略超参数重要程度在深度学习的诸多超参数中,吴恩达老师提出了自己对于超参数重要程度的见解:图中超参数依次为:学习率、动量SDG中的β、Adam中的β1、β2、层数、隐藏层神经元数、学习率衰减、mini-batch size。 吴恩达老师认为上图中超参数调整的重要程度依次为:红色、橙色、紫色。调参策略1.网格搜索:吴恩达老师不推荐使用网格搜索,原因是:以上图为例,并不能确定两个参数的重要性,因此网格搜索可能会做很多无用功。比如倘若上图中两个参数h1、h2分别是几乎最
2020-12-08 20:26:50 228
原创 吴恩达深度学习02-2.9 学习率衰减
目录引子怎样对学习率进行控制引子倘若不随着训练的进行来对学习率进行适当的控制,则会出现上图中蓝色曲线的情况,即最终参数值会以较大的幅度在收敛值附近摆动;倘若对其进行控制,则会出现上图中绿色曲线的情况,即最终参数值会以原来越小的幅度在收敛值附近摆动。很显然,你更希望出现绿色的情况。怎样对学习率进行控制很明显,学习率需要不断的衰减,那么常用的衰减策略是什么呢?吴恩达老师一共给出了三种计算公式,下面是第一种。第2、3种:可以看出,第二种属于指数下降。...
2020-12-08 19:54:34 164
原创 吴恩达深度学习02-2.3 指数加权平均
目录引例引例吴恩达老师是以气温折线图为例子展开论述的。横坐标是某天,纵坐标是温度,然后图中蓝色的点代表某天的气温。上文的公式就是绘制红色、绿色、黄色曲线所用到的指数加权平均公式,公式中的参数β分别设置为0.9、0.98、0.5,对应曲线红色、绿色、黄色。然后右面的公式1/(1-β)是相当于指数加权平均所平均的天数x,可以理解为绘制某点q的时候综合了前面x天的气温平均得来的该点q的温度。所以当β=0.98的时候,综合了前面50天的气温,由此可知,它对于温度变化的反应是比较慢的,因为过去的气温影响目
2020-12-07 19:56:19 637 1
原创 pytorch损失函数解析
目录nn.L1Loss:nn.NLLLoss:nn.CrossEntropyLossnn.MSELossnn.BCELoss:nn.L1Loss:这个比较简单,没有太多好说的,就是两者做差取绝对值,然后求和取平均。输入x和目标y之间差的绝对值,要求 x 和 y 的维度要一样(可以是向量或者矩阵),得到的 loss 维度也是对应一样的。loss(x,y)=1/n∑\sum∑ |x_i-y_i|nn.NLLLoss:nn.NLLLoss是负的似然对数损失,但Pytorch的实现就是把对应tar
2020-12-04 21:34:55 2943
计算机网络实验课码分多址CDMA.代码zip
2019-11-01
zhilian1.zip
2019-08-17
C#winform窗体+socket实现登录通信聊天软件(可私聊与群聊)
2019-03-06
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人