自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 资源 (5)
  • 收藏
  • 关注

原创 吴恩达深度学习03-2.2 清楚标注错误的数据

目录训练集标注错误随即错误规律性错误测试集或者验证集出现错误其他需要注意的原则训练集标注错误有时候,我们的训练集数据标签并不是正确的,而是存在一些错误的标签的,对于其不同的错误情况,我们有不同的处理措施。随即错误即训练集中标注错误的数据是随机的,没有特定的规律可言,在这种情况下,我们可以不做处理。因为神经网络对于随机误差的鲁棒性是很高的。规律性错误这种情况往往是由于某种有规律的错误标注导致的。举个例子,倘若你的神经网络要识别一张图像中有没有猫,而训练集中所有图像中有白色的狗的图像都被

2020-12-23 09:47:20 1265 1

转载 不变性(invariance)详细解释

原文:https://blog.csdn.net/weixin_39568744/article/details/82250663?utm_medium=distribute.pc_relevant.none-task-blog-searchFromBaidu-2.control&depth_1-utm_source=distribute.pc_relevant.none-task-blog-searchFromBaidu-2.controlinvariance(不变性),这种不变性包括tran

2020-12-17 20:18:42 2860

转载 池化层的作用理解与总结

原文:https://blog.csdn.net/weixin_42193719/article/details/103860206池化层的作用总结:在卷积神经网络中通常会在相邻的卷积层之间加入一个池化层,池化层可以有效的缩小参数矩阵的尺寸,从而减少最后连接层的中的参数数量。所以加入池化层可以加快计算速度和防止过拟合的作用。池化的原理或者是过程:pooling是在不同的通道上分开执行的(就是池化操作不改变通道数),且不需要参数控制。然后根据窗口大小进行相应的操作。 一般有max pooling、

2020-12-17 20:09:48 7954

转载 全连接层的作用解析

作者:魏秀参链接:https://www.zhihu.com/question/41037974/answer/150522307来源:知乎全连接层到底什么用?我来谈三点。全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。在实际使用中,全连接层可由卷积操作实现:对前层是全连接的全连接层可以转化为卷积核.

2020-12-17 19:52:46 1706

转载 feature map的理解

作者:itsAndy链接:https://www.zhihu.com/question/308021221/answer/1431405289来源:知乎feather map的理解在cnn的每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起(像豆腐皮一样),其中每一个称为一个feature map。feather map 是怎么生成的?输入层:在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿.

2020-12-17 11:26:14 1021 2

原创 吴恩达深度学习02-3.567 Batch Normalization(BN)

目录前言why BN?Internal Covariate ShiftBN起源具体操作白化使之趋于非线性将BN拟合进神经网络前言最近在着手一项课设,在使用深度学习FCN网络的时候遇到了BN的问题,正巧的是,我同时在吴恩达老师的深度学习课程上看到了有关BN的问题,同时BN也是挺有意思、挺重要的知识。于是写下这篇文章来记录有关BN的学习过程。本文综合了吴恩达老师的深度学习课程以及诸多博客的优秀见解,在此致谢。why BN?Internal Covariate Shift首先介绍一个概念——ic

2020-12-14 11:25:39 428

转载 归一化输入特征加快模型训练

转自:https://blog.csdn.net/weixin_42555985/article/details/1062784731.9 归一化输入 Normalizing inputs训练NN,其中一个加速训练的方法就是归一化输入。如上图,数据集的散点图。假设一个训练集有两个特征,输入特征为2维,归一化需要两个步骤:step1:零均值μ = 1 m ∑ i = 1 m x ( i ) \mu =\frac 1m\sum_{i=1}^mx^{(i)}μ=m1​i=1∑m​x(i)向量

2020-12-14 09:50:20 716

原创 pytorch保存模型后加载模型遇到的大坑

目录保存模型model.eval()保存模型保存模型的方式主要有两种, 一种是全量保存,另一种是只保存网络结构的参数(注意,不保存网络结构,只保存参数,所以在加载模型的时候需要先设置好一个模型网络)#1.保存整个网络torch.save(model_object, 'model.pth')#1.1加载参数model = torch.load('model.pth')#2.保存参数torch.save(model_object.state_dict(), 'params.pth')#

2020-12-12 22:37:24 33525 26

转载 【转】torchvision.transforms.Normalize()解释

原文:https://blog.csdn.net/xys430381_1/article/details/85724668也许你经常会在PIL.Image转为tensor时看到这么一段数据预处理代码:im_tfs = tfs.Compose([ tfs.ToTensor(), tfs.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]) data = im_tfs(data)下面就是关于

2020-12-10 21:48:21 6038

转载 【转】图像卷积后的大小计算公式

原文:https://blog.csdn.net/aron_conli/article/details/95175757?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.control&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.control.

2020-12-09 11:29:35 1804

原创 吴恩达深度学习02-3.2 为超参数选择合适的范围

目录选择范围解决措施选择范围超参数的范围选择好像是一件很简单的事情,给定我一个参数的区间,对区间内的点挨个试不就知道了?事实上,并不是这样的,对于不同的参数,上述措施,并不总是对的。对于上面两个参数:隐藏单元的数量和层数,采用均匀取值的方法貌似是合理的。但是对于另一些参数,上述策略是不合理的,例如学习率α倘若学习率取值范围是0.0001到1,那么很显然,在这个区间上,有约90%的资源用在0.1到1这个区间上,只有约10%的资源在0.0001到0.1这个区间上。但事实上,对于学习率这个特殊

2020-12-08 21:17:46 723 3

原创 吴恩达深度学习02-3.1 调试处理

目录超参数重要程度调参策略超参数重要程度在深度学习的诸多超参数中,吴恩达老师提出了自己对于超参数重要程度的见解:图中超参数依次为:学习率、动量SDG中的β、Adam中的β1、β2、层数、隐藏层神经元数、学习率衰减、mini-batch size。 吴恩达老师认为上图中超参数调整的重要程度依次为:红色、橙色、紫色。调参策略1.网格搜索:吴恩达老师不推荐使用网格搜索,原因是:以上图为例,并不能确定两个参数的重要性,因此网格搜索可能会做很多无用功。比如倘若上图中两个参数h1、h2分别是几乎最

2020-12-08 20:26:50 228

原创 吴恩达深度学习02-2.9 学习率衰减

目录引子怎样对学习率进行控制引子倘若不随着训练的进行来对学习率进行适当的控制,则会出现上图中蓝色曲线的情况,即最终参数值会以较大的幅度在收敛值附近摆动;倘若对其进行控制,则会出现上图中绿色曲线的情况,即最终参数值会以原来越小的幅度在收敛值附近摆动。很显然,你更希望出现绿色的情况。怎样对学习率进行控制很明显,学习率需要不断的衰减,那么常用的衰减策略是什么呢?吴恩达老师一共给出了三种计算公式,下面是第一种。第2、3种:可以看出,第二种属于指数下降。...

2020-12-08 19:54:34 164

原创 吴恩达深度学习02-2.3 指数加权平均

目录引例引例吴恩达老师是以气温折线图为例子展开论述的。横坐标是某天,纵坐标是温度,然后图中蓝色的点代表某天的气温。上文的公式就是绘制红色、绿色、黄色曲线所用到的指数加权平均公式,公式中的参数β分别设置为0.9、0.98、0.5,对应曲线红色、绿色、黄色。然后右面的公式1/(1-β)是相当于指数加权平均所平均的天数x,可以理解为绘制某点q的时候综合了前面x天的气温平均得来的该点q的温度。所以当β=0.98的时候,综合了前面50天的气温,由此可知,它对于温度变化的反应是比较慢的,因为过去的气温影响目

2020-12-07 19:56:19 637 1

原创 pytorch优化器知识总结整理

目录SGDMomentumRMSPropAdamSGDMomentumRMSPropAdam

2020-12-05 18:44:11 926

原创 pytorch损失函数解析

目录nn.L1Loss:nn.NLLLoss:nn.CrossEntropyLossnn.MSELossnn.BCELoss:nn.L1Loss:这个比较简单,没有太多好说的,就是两者做差取绝对值,然后求和取平均。输入x和目标y之间差的绝对值,要求 x 和 y 的维度要一样(可以是向量或者矩阵),得到的 loss 维度也是对应一样的。loss(x,y)=1/n∑\sum∑ |x_i-y_i|nn.NLLLoss:nn.NLLLoss是负的似然对数损失,但Pytorch的实现就是把对应tar

2020-12-04 21:34:55 2943

bean的生命周期分析(五)

bean的生命周期分析(五)

2023-06-24

迁移学习常用USPS数字数据集

USPS数据集包含0-9十个数字的28*28的图片,通道数为1,可以用于迁移学习,图像识别等。

2021-05-02

mnist_10k_sprite1数字集.zip

一万个手写数字,可用于tensorboard MNIST数据集可视化所需要的图片,用处很多,很广泛,你值得拥有。

2020-02-24

计算机网络实验课码分多址CDMA.代码zip

网上的有关这个实验课的代码都写得不正确,我特意整理了一份,直接可以运行的代码,注释详细,输出人性化看得懂 实验二 CDMA编码 1、实验题目:CDMA编码 2、实验内容: (1) 设全部8比特二进制数集合为M。随机生成8比特码片m1。 (2) 计算与m1正交的所有8比特码片集合M1。 (3) 在集合M-M1中随机选取码片m2。 (4) 计算与m2正交的所有8比特码片M2 (5) 以此类推,计算出所有8比特互相正交的码片集合M1、M2、…… 3、实验报告内容: (1) CDMA信道复用原理。 (2) 随机生成的的5个互不正交的码片M1、M2、M3、M4、M5。 (3) 获取与某个码片正交的全部码片的算法。 (4) 记录与M1正交的码片数量及10个与M1正交的码片,不足10个的记录全部码片,互为反码的记为一个。 (5) 记录与M2正交的码片数量及10个与M2正交的码片,不足10个的记录全部码片,互为反码的记为一个。 (6) 记录与M3正交的码片数量及10个与M3正交的码片,不足10个的记录全部码片,互为反码的记为一个。 (7) 记录与M4正交的码片数量及10个与M4正交的码片,不足10个的记录全部码片,互为反码的记为一个。 (8) 记录与M5正交的码片数量及10个与M5正交的码片,不足10个的记录全部码片,互为反码的记为一个。 (9) 比较与M1、M2、M3、M4、M5正交的码片总数并简单分析原因。

2019-11-01

zhilian1.zip

本爬虫代码使用scrapy框架写成,使用python语言,数据库使用MongoDB(可根据自己需要随意修改),主要用途就是将智联招聘的各种职业,各个城市,所有页码的招聘信息都爬取到数据库中。

2019-08-17

C#winform窗体+socket实现登录通信聊天软件(可私聊与群聊)

提供两个版本:第一个测试版,是可以在一台电脑模拟实现群聊私聊的(由于ip是一样的,所以写死了);第二个是成品,如果要测试的话要找局域网内多台不同的电脑测试(因为用户之间是以IP地址区分的)。压缩包里附有完整且正确的代码以及使用说明文档。

2019-03-06

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除