![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
ys1305
这个作者很懒,什么都没留下…
展开
-
空洞卷积
空洞卷积# 在原始卷积核的每两个元素之间插入 d − 1个空洞# 膨胀的卷积核尺寸 = 膨胀系数 * (原始卷积核尺寸 - 1) + 1# 也可以写成 m + (m − 1) × (d − 1) 二者是相等的# m为原始卷积核尺寸 d为膨胀系数# 首先由于卷积的操作特性,卷积核尺寸是奇数,则原始卷积核尺寸减一为偶数。# 那么,在上述公式中,膨胀系数*偶数-1为奇数,保证了膨胀的卷积...原创 2019-08-12 15:03:21 · 5157 阅读 · 0 评论 -
pytorch实现正则化
下载地址参数正则化(Weight Regularization)以前的方法L2/L1 Regularization机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,称作**L1正则化和L2正则化,或者L1范数和L2范数**。L1 正则化和 L2 正则化可以看做是损失函数的惩罚项。所谓 “惩罚” 是指对损失函数中的某些参数做一些限制。L1 正则化是指权值向量...原创 2019-07-31 20:40:00 · 23667 阅读 · 1 评论 -
pytorch编程 的一般套路
笔记下载地址# loss.backward()是求梯度的过程,可以通过手动来更新参数,而不用优化器来更新# optimizer.step()只是使用loss.backward()得到的梯度进行更新参数# 需要to(device) 只有model,训练集data,标签targetimport torchimport torch.nn as nn # 各种层类型的实现import tor...原创 2019-07-22 19:36:00 · 1242 阅读 · 0 评论 -
keras笔记
一、keras套路序贯模型是多个网络层的线性堆叠。Sequential的第一层需要接受一个关于输入数据shape的参数,后面的各个层则可以自动的推导出中间数据的shape,因此不需要为每个层都指定这个参数指定模型Sequential( )---->堆叠模块 .add( )---->编译模型 .compile( )---->在训练数据上迭代 .fit( )----&g...原创 2019-07-31 12:15:40 · 249 阅读 · 0 评论 -
Keras中的BatchNormalization层
Keras中的BatchNormalization层有四个参数其中两个是可以训练的,对应于λ与β两个是不能训练的。keras.layers.normalization.BatchNormalization(axis=-1, momentum=0.99, epsilon=0.001, center=True, scale=True, beta_initializer='zeros', gamm...原创 2019-07-31 11:18:54 · 9589 阅读 · 1 评论 -
keras指定batchsize
具体的测试可以将keras中的第6.4程序1、Sequential情况下如果想要指定批次的大小,需要在第一层的输入形状中使用batch_input_shape而不能使用input_shape,因为input_shape不能指定批次的大小,批次只能为Noneinput_shape和batch_input_shape。input_shape 不包含批量大小,batch_input_shap...原创 2019-07-23 20:54:22 · 6992 阅读 · 0 评论 -
pytorch中优化器与学习率衰减方法总结
torch.optimtorch.optim是一个实现了各种优化算法的库。大部分常用的方法得到支持,并且接口具备足够的通用性,使得未来能够集成更加复杂的方法。如何使用optimizer为了使用torch.optim,你需要构建一个optimizer对象。这个对象能够保持当前参数状态并基于计算得到的梯度进行参数更新。构建为了构建一个Optimizer,你需要给它一个包含了需要优化的参数(必...原创 2019-06-30 16:25:53 · 27919 阅读 · 3 评论 -
pytorch中图片数据增强的方法
Compose组合transforms包含了一些常用的图像变换,这些变换能够用Compose串联组合起来torchvision.transforms.Compose(transforms)# 用于把一系列变换组合到一起。# 参数:transforms(list或Transform对象)- 一系列需要进行组合的变换。>>> transforms.Compose([&g...原创 2019-06-30 16:24:16 · 17289 阅读 · 6 评论 -
pytorch中的参数初始化方法总结
参数初始化(Weight Initialization)PyTorch 中参数的默认初始化在各个层的 reset_parameters() 方法中。例如:nn.Linear 和 nn.Conv2D,都是在 [-limit, limit] 之间的均匀分布(Uniform distribution),其中 limit 是 1. / sqrt(fan_in) ,fan_in 是指参数张量(tensor...原创 2019-06-30 16:20:33 · 67261 阅读 · 3 评论 -
pytorch初步-一步步实现神经网络
大佬地址numpy实现import numpy as np# N is batch size; D_in is input dimension;# H is hidden dimension; D_out is output dimension.N, D_in, H, D_out = 64, 1000, 100, 10# Create random input and output...原创 2019-06-30 16:16:33 · 925 阅读 · 0 评论 -
pytorch总结
1pytorch-handbook jupyter观看2非常好的pytorch例子原创 2019-04-16 16:55:26 · 102 阅读 · 0 评论 -
总结
1深度学习吴恩达学习笔记-imshuai2Sklearn 与 TensorFlow 机器学习实用指南笔记3Sklearn 与 TensorFlow 机器学习实用指南-精简笔记原创 2019-03-26 11:10:41 · 110 阅读 · 0 评论 -
github总结
1深度学习500问2深度学习500问网页版3机器学习面试题---极客兔兔 14题4CS-node5 python3-cookbook6python100天7面试笔记8BAT机器学习面试1000题系列(第1~305题)9 BAT机器学习面试1000题系列 320题 ...原创 2019-01-13 16:29:35 · 222 阅读 · 0 评论 -
全连接、局部连接、全卷积与局部卷积
全连接、局部连接、全卷积与局部卷积 大多数神经网络中高层网络通常会采用全连接层(Global Connected Layer),通过多对多的连接方式对特征进行全局汇总,可以有效地提取全局信息。但是全连接的方式需要大量的参数,是神经网络中最占资源的部分之一,因此就需要由局部连接(Local Connected Layer),仅在局部区域范围内产生神经元连接,能够有效地减少参数量。根据卷积操作的作...原创 2019-08-12 15:05:47 · 7378 阅读 · 2 评论