![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
PyTorch
文章平均质量分 50
YJH-666
这个作者很懒,什么都没留下…
展开
-
PyTorch笔记2-关系拟合(回归)
本系列笔记为莫凡PyTorch视频教程笔记 github源码import torch from torch.autograd import Variable import torch.nn.functional as F # activation function import matplotlib.pyplot as plt% matplotlib inline建立数据集我们创建一原创 2017-11-04 11:33:42 · 1377 阅读 · 0 评论 -
PyTorch笔记9-Batch Normalization
本系列笔记为莫烦PyTorch视频教程笔记 github源码 reference1: 网易吴恩达 DL 课程 reference2: 知乎关于 BN 讨论 概要我们知道 normalize input(归一化输入)可以加速神经网络的训练,那我们是否可以 normalize activation function 并 speed up 网络训练呢,这就是 Batch Normaliz原创 2017-11-06 12:18:13 · 21346 阅读 · 0 评论 -
PyTorch笔记8-Dropout
本系列笔记为莫烦PyTorch视频教程笔记 github源码概要在训练时 loss 已经很小,但是把训练的 NN 放到测试集中跑,loss 突然飙升,这很可能出现了过拟合(overfitting) 减低过拟合,一般可以通过:加大训练集、loss function 加入正则化项、Dropout 等途径,这里演示 Dropoutimport torch from torch.autograd i原创 2017-11-06 08:03:26 · 23802 阅读 · 4 评论 -
PyTorch笔记1-PyTorch简介
本系列笔记为莫烦PyTorch视频教程笔记 github源码PyTorch简介PyTorch的安装PyTorch的安装十分简单,根据PyTorch官网,对系统选择和安装方式等灵活选择即可。这里新建一个Python3的虚拟环境后,然后在虚拟环境下用pip安装,如下图所示 PyTorch 会安装两个模块, 一个是 torch, 一个 torchvision, torch 是主模块, 用来搭建神原创 2017-11-03 21:18:10 · 5367 阅读 · 1 评论 -
PyTorch笔记6-mini batch
本系列笔记为莫烦PyTorch视频教程笔记 github源码概要Torch 中提供了一种整理数据结构的好东西,叫做 DataLoader,可以用来包装自己的数据,进行批训练,而且批训练可以有多种途径import torch import torch.utils.data as Datatorch.manual_seed(1) # reproducible<torch._C.Genera原创 2017-11-04 23:37:32 · 7451 阅读 · 4 评论 -
PyTorch笔记5-save和load神经网络
本系列笔记为莫烦PyTorch视频教程笔记 github源码概要用 PyTorch 训练好神经网络(NN)后,如何保存以便下次要用的时候直接提取使用即可,下面举栗import torch from torch.autograd import Variable import torch.nn.functional as F # activation function import ma原创 2017-11-04 22:32:57 · 3025 阅读 · 3 评论 -
PyTorch笔记4-快速构建神经网络(NN)
本系列笔记为莫烦PyTorch视频教程笔记 github源码概要Torch 中提供了很多方便的途径, 同样是神经网络, 能快则快, 我们看看如何用更简单的方式搭建同样的回归神经网络.import torch import torch.nn.functional as F # activation function快速搭建先回顾之前构建神经网络(NN)的步骤,如下:class Net(to原创 2017-11-04 20:37:12 · 749 阅读 · 0 评论 -
PyTorch笔记3-分类
本系列笔记为莫凡PyTorch视频教程笔记 github源码概要用 PyTorch 建立神经网络对事物进行分类import torch from torch.autograd import Variable import torch.nn.functional as F # activation function import matplotlib.pyplot as plt建原创 2017-11-04 19:30:12 · 632 阅读 · 0 评论 -
PyTorch笔记7-optimizer
本系列笔记为莫烦PyTorch视频教程笔记 github源码概要Torch 提供了几种 optimizer,如:SGD, Momentum, RMSprop, Adam - SGD: stochastic gradient descent,随机梯度下降,每次迭代只训练一个样本,不能利用 CPU 或 GPU 并行计算 speed up,且每个样本都进行gradient descent,这无疑增原创 2017-11-05 01:06:15 · 1283 阅读 · 0 评论