![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
强化学习——Pytorch
nonono吧
菜的抠jio
展开
-
Pytorch学习(7)-损失函数
本节主要是关于几种损失函数的学习。原创 2020-06-09 08:44:41 · 3397 阅读 · 4 评论 -
Pytorch实战(1)-Mnist手写数据集 (作为实战入门)
主要是使用LeNet进行手写数字识别。 一、介绍LeNet网络 结构图 详细展开 它的输入尺寸是32×32。 重点介绍一下卷积层、池化层和全连接层 卷积层:通过卷积运算,可以使原信号特征增强,并且降低噪音。 # ------------------------------------------------------------------ 解析代码:nn.Conv2d(1, 6...原创 2020-02-14 17:14:42 · 1003 阅读 · 0 评论 -
Pytorch学习(6)-神经网络工具箱nn
nn模块是构建于autograd之上的神经网络模块。(autograd实现了自动微分系统) 1.1、nn.Module 由于使用autograd可实现深度学习模型,但是其抽象程度较低,用来实现深度学习模型,则需要编写的代码量极大。 因此torch.nn产生了,其是专门为深度学习设计的模块。torch.nn的核心数据结构是Module,它是一个抽象的概念,既可以表示神经网络中...原创 2020-02-02 19:55:40 · 514 阅读 · 0 评论 -
Pytorch学习(5)-用Variable实现线性回归
利用autograd/Variable实现线性回归,体会autograd的便捷之处。 from __future__ import print_function import torch as t from torch.autograd import Variable as V from torch.autograd import Function from matplotlib import...原创 2020-02-02 16:09:09 · 386 阅读 · 0 评论 -
Pytorch学习(4)-Autograd
Autograd(torch.autograd):一套自动求导引擎,可以根据输入和前向传播过程自动构建计算图,并执行反向传播。 计算图(Computation Graph)是现代深度学习框架(如PyTorch和Tensorflow等)的核心,它为自动求导算法——反向传播(Back Propogation)提供了理论支持。 一、Variable PyTorch在autog...原创 2020-01-29 19:01:34 · 293 阅读 · 0 评论 -
Pytorch学习(3)- 线性回归
线性回归利用数理统计中的回归分析来确定两种或两种以上变量间相互依赖的定量关系,其表达式为: y = w*x + b + e, 误差e服从均值0的正态分布。线性回归的损失函数是: 利用随机梯度下降法更新参数w和b来最小化损失函数,最终学得w和b的数值。 ...原创 2020-01-28 19:06:07 · 343 阅读 · 0 评论 -
Pytorch学习(2)- tensor
Tensor:张量,可以是标量(一个数)、向量(一维数组)、矩阵(二维数组)或者更高维的数组。 它与numpy和ndarrays相似,但是PyTorch的tensor支持GPU加速。 一、tensor分类 从接口的角度分类 torch.function 如torch.save() tensor.function 如tensor.view() 从存储的角...原创 2020-01-28 15:33:51 · 921 阅读 · 0 评论 -
Pytorch学习(1)
首先是开发环境的配置,python37+windows+pycharm,之前想试着弄jupty notebook,但是cuda太慢了. 使用了清华源,还是无法加载torchvision,所以我放弃了,从而使用pycharm. 通过一个例子(CIFAR-10)来入门 使用torchvision加载并预处理CIFAR-10数据集 定义网络 定义损失函数和优化器 训练网络并更新网络参数 测...原创 2020-01-25 20:11:49 · 285 阅读 · 0 评论