Pytorch学习之旅
自学入门pytorch,记录一些体会
不想调试板子
今天也要努力鸭!
展开
-
Pytorch学习之旅(9)——线性层权值初始化
一、为什么要讨论权值的初始化问题? 神经网络一般包含多级全线性层,随着层数的增加,为了保持网络的稳定,对梯度提出了要求:不能出现梯度消失或者爆炸。 先来看一个三级全连接层网络: 此处乱入一个数学知识: &nb原创 2020-05-17 01:15:33 · 4047 阅读 · 0 评论 -
Pytorch学习之旅(8)——nn.Sequential()容器
一、 nn.Module()模块所有网络层的基类,管理网络属性。 一个module可以包含多个子module.一个module相当于一个运算,必须实现forward()方法,而backward函数会被自动实现(利用Autograd).每个module都有8个字典管理其属性.二、nn.Sequential()容器nn.Sequential()是nn.module()的容器,用于按顺序包装一组网络层。顺序性:个网络层之间严格按原创 2020-05-13 15:39:35 · 4805 阅读 · 0 评论 -
Pytorch学习之旅(7)——nn.Conv2d卷积
一、函数原型nn.Conv2d(in_channels, #输入数据的通道数(int) out_channels, #输出数据的通道数(int) kernel_size, #卷积核大小(int or tuple) stride=1, # 步长(int or tuple, optional) padding=0, # 零填充(int or tuple, optional) dilation=1, # (int原创 2020-05-13 10:59:40 · 412 阅读 · 0 评论 -
Pytorch学习之旅(6)——transforms类
一、transforms()类torchvision.transforms():用于常见的一些图形变换.transforms()类的常用方法二、使用1、运用transforms.Compose()函数,将多个transforms的子类函数拼接成list():# 串联图片变换的多个操作valid_transform = transforms.Compose([ transforms.Resize((32, 32)), transforms.ToTensor(), trans原创 2020-05-11 18:19:04 · 361 阅读 · 0 评论 -
Pytorch学习之旅(5)——DataLoader和DataSet
一、DataLoader()函数torch.utils.data.DataLoader():构建可迭代的数据装载器.class DataLoader(object): def __init__(self, dataset, batch_size=1, shuffle=False, sampler=None, batch_原创 2020-05-11 00:43:53 · 406 阅读 · 0 评论 -
Pytorch学习之旅(4)——逻辑回归实战
求解机器学习问题的一般训练步骤:数据处理 => 建立模型 => 选择损失函数 => 选择优化器 => 迭代训练import torchimport torch.nn as nnimport matplotlib.pyplot as pltimport numpy as nptorch.manual_seed(10)# ============================ step 1/5 生成数据 ============================sa原创 2020-05-09 21:42:23 · 186 阅读 · 0 评论 -
Pytorch学习之旅(2)——线性回归实战
一、线性回归模型 回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析,即 y = w * x + b .二、模型分析1、确定模型Model: y = w * x + b 2、选择损失函数采用最小平方法求解一元线性模型最优参数 w、b。MSE: ...原创 2020-05-08 12:59:47 · 344 阅读 · 0 评论 -
Pytorch学习之旅(3)——autograd自动求导系统
一、autograd—自动求导系统1、torch.autograd.backward()函数 功能:自动求取梯度。函数原型:torch.autograd.backward(tensors, => 用于求解梯度的张量 gradient, => 多...原创 2020-02-04 23:27:36 · 231 阅读 · 0 评论 -
Pytorch学习之旅(0)——张量的简介及创建
一、直接创建1、torch.tensor():从data创建tensortorch.tensor(data, => 数据,可以是list、numpy dtype = None, => 数据类型,默认和data相同 device = None, => 所在设备...原创 2020-02-04 14:24:06 · 2602 阅读 · 0 评论 -
Pytorch学习之旅(1)——张量的操作
张量操作1.张量的拼接—cat()与stack()函数函数原型:torch.cat(tensors, # 张量序列 dim = 0, # 要拼接的维度 out = None)torch.stack(tensors, # 张量序列 dim = 0, # 要拼接的维度 out = None)...原创 2020-02-04 12:52:34 · 225 阅读 · 0 评论