pytorch
ys1305
这个作者很懒,什么都没留下…
展开
-
pytorch笔记下载链接-md格式
下载地址欢迎下载和批评指正原创 2019-07-08 18:49:45 · 210 阅读 · 0 评论 -
pytorch初步-一步步实现神经网络
大佬地址numpy实现import numpy as np# N is batch size; D_in is input dimension;# H is hidden dimension; D_out is output dimension.N, D_in, H, D_out = 64, 1000, 100, 10# Create random input and output...原创 2019-06-30 16:16:33 · 924 阅读 · 0 评论 -
numpy 与 tensor对比
类型(Types)NumpyPyTorchnp.ndarraytorch.Tensornp.float32torch.float32; torch.floatnp.float64torch.float64; torch.doublenp.float16torch.float16; torch.halfnp.int8torch.int8n...原创 2019-06-30 16:18:34 · 8195 阅读 · 0 评论 -
pytorch中的参数初始化方法总结
参数初始化(Weight Initialization)PyTorch 中参数的默认初始化在各个层的 reset_parameters() 方法中。例如:nn.Linear 和 nn.Conv2D,都是在 [-limit, limit] 之间的均匀分布(Uniform distribution),其中 limit 是 1. / sqrt(fan_in) ,fan_in 是指参数张量(tensor...原创 2019-06-30 16:20:33 · 66770 阅读 · 3 评论 -
pytorch中图片数据增强的方法
Compose组合transforms包含了一些常用的图像变换,这些变换能够用Compose串联组合起来torchvision.transforms.Compose(transforms)# 用于把一系列变换组合到一起。# 参数:transforms(list或Transform对象)- 一系列需要进行组合的变换。>>> transforms.Compose([&g...原创 2019-06-30 16:24:16 · 17250 阅读 · 6 评论 -
pytorch中优化器与学习率衰减方法总结
torch.optimtorch.optim是一个实现了各种优化算法的库。大部分常用的方法得到支持,并且接口具备足够的通用性,使得未来能够集成更加复杂的方法。如何使用optimizer为了使用torch.optim,你需要构建一个optimizer对象。这个对象能够保持当前参数状态并基于计算得到的梯度进行参数更新。构建为了构建一个Optimizer,你需要给它一个包含了需要优化的参数(必...原创 2019-06-30 16:25:53 · 27695 阅读 · 3 评论 -
pytorch编程 的一般套路
笔记下载地址# loss.backward()是求梯度的过程,可以通过手动来更新参数,而不用优化器来更新# optimizer.step()只是使用loss.backward()得到的梯度进行更新参数# 需要to(device) 只有model,训练集data,标签targetimport torchimport torch.nn as nn # 各种层类型的实现import tor...原创 2019-07-22 19:36:00 · 1240 阅读 · 0 评论 -
查看Pytorch网络的各层输出(feature map)、权重(weight)、偏置(bias)
BatchNorm2d参数量torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)# 卷积层中卷积核的数量C num_features – C from an expected input of size (N, C, H, W)>>&...原创 2019-07-31 20:36:18 · 23957 阅读 · 2 评论 -
pytorch实现正则化
下载地址参数正则化(Weight Regularization)以前的方法L2/L1 Regularization机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,称作**L1正则化和L2正则化,或者L1范数和L2范数**。L1 正则化和 L2 正则化可以看做是损失函数的惩罚项。所谓 “惩罚” 是指对损失函数中的某些参数做一些限制。L1 正则化是指权值向量...原创 2019-07-31 20:40:00 · 23629 阅读 · 1 评论