pytorch
文章平均质量分 70
小汤河河神
这个作者很懒,什么都没留下…
展开
-
pytorch安装带gpu时, ImportError: DLL load failed: 找不到指定的模块
出现ImportError: DLL load failed: 找不到指定的模块 这个问题时可以选择安装版本较低的cuda,即torch官网中安装9.2版本的cuda原创 2019-11-08 09:23:48 · 661 阅读 · 0 评论 -
莫烦pytorch学习笔记(十三)——LSTM循环神经网络
高级神经网络——LSTM循环神经网络RNN的弊端之前我们说过, RNN 是在有顺序的数据上进行学习的. 为了记住这些数据, RNN 会像人一样产生对先前发生事件的记忆. 不过一般形式的 RNN 就像一个老爷爷, 有时候比较健忘. 为什么会这样呢?想像现在有这样一个 RNN, 他的输入值是一句话: ‘我今天要做红烧排骨, 首先要准备排骨, 然后…., 最后美味的一道菜就出锅了’, shu...转载 2018-08-03 09:50:42 · 2069 阅读 · 0 评论 -
莫烦pytorch学习笔记(十二)——循环神经网络RNN(Recurrent Neural Network)
高级神经网络结构——循环神经网络RNN序列数据我们想象现在有一组序列数据 data 0,1,2,3. 在当预测 result0 的时候,我们基于的是 data0, 同样在预测其他数据的时候, 我们也都只单单基于单个的数据. 每次使用的神经网络都是同一个 NN. 不过这些数据是有关联 顺序的 , 就像在厨房做菜, 酱料 A要比酱料 B 早放, 不然就串味了. 所以普通的神经网络结构并不能让 ...原创 2018-08-03 09:33:52 · 1059 阅读 · 0 评论 -
莫烦pytorch学习笔记(十一)——Optimizer优化器
建造第一个神经网络——Optimizer优化器要点这节内容主要是用 Torch 实践,中起到的几种优化器。下图就是这节内容对比各种优化器的效果:伪数据为了对比各种优化器的效果, 我们需要有一些数据, 今天我们还是自己编一些伪数据, 这批数据是这样的:import torchimport torch.utils.data as Dataimport tor...原创 2018-08-02 16:00:50 · 6065 阅读 · 0 评论 -
莫烦pytorch学习笔记(十)——加速神经网络训练
建造第一个神经网络——加速神经网络训练加速神经网络训练包括下面几种模式:Momentum AdaGrad RMSProp Adam Stochastic Gradient Descent (SGD)越复杂的神经网络 , 越多的数据 , 我们需要在训练神经网络的过程上花费的时间也就越多. 原因很简单, 就是因为计算量太大了. 可是往往有时候为了解决复杂的问题, 复杂的结构和大数据又...原创 2018-08-02 11:18:49 · 1855 阅读 · 0 评论 -
莫烦的学习笔记(九)——批训练
建造第一个神经网络——批训练1.要点Torch 中提供了一种帮你整理你的数据结构的好东西, 叫做 DataLoader, 我们能用它来包装自己的数据, 进行批训练. 而且批训练可以有很多种途径。2.DataLoaderDataLoader 是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy array 或其他) 数据形式装换成 Tensor, 然后再放进这...原创 2018-08-02 10:03:04 · 4013 阅读 · 5 评论 -
莫烦pytorch学习笔记(八)——保存提取
建造第一个神经网络——保存提取1.要点训练好一个模型,我们当然想要保存它, 留到下次要用的时候直接提取直接用, 这就是这节的内容啦。我们用回归的神经网络举例实现保存提取。2.保存我们快速地建造数据,搭建网络:torch.manual_seed(1) # reproducible# 假数据x = torch.unsqueeze(torch.linspace(-1, ...原创 2018-08-01 16:46:53 · 1321 阅读 · 0 评论 -
莫烦pytorch学习笔记(七)——快速搭建法
建造第一个神经网络——快速搭建法1.要点Torch 中提供了很多方便的途径, 同样是神经网络, 能快则快。本篇博客我们看看如何用更简单的方式搭建同样的回归神经网络。2.快速搭建之前写神经网络时用到的步骤,我们用net代表这种方式搭建的神经网络。class Net(torch.nn.Module): def __init__(self, n_feature, n_hid...原创 2018-07-31 20:29:41 · 606 阅读 · 0 评论 -
莫烦pytorch学习笔记(六)——区分类型(分类)
建立第一个神经网络——区分类型(分类)1.要点上一节学习笔记(五)讲到,神经网络有两类,回归和分类,上节简单介绍了回归,本节介绍分类。2.建立数据集import torchimport matplotlib.pyplot as plt# 假数据n_data = torch.ones(100, 2) # 数据的基本形态x0 = torch.normal(2...原创 2018-07-31 20:03:17 · 1752 阅读 · 1 评论 -
莫烦pytorch学习笔记(五)——关系拟合(回归)
建造第一个神经网络——关系拟合(回归)1.要点神经网络分为两种类型,一种回归,一种分类。回归是连续的值,比如房价问题;分类是一堆数据,比如一堆图片,神经网络将起划分为两种不同类型。2.建立数据集我们创建一些假数据来模拟真实的情况. 比如一个一元二次函数: y = a * x^2 + b, 我们给 y 数据加上一点噪声来更加真实的展示它。import torchfrom to...原创 2018-07-31 16:11:12 · 2911 阅读 · 0 评论 -
莫烦pytorch学习笔记(四)——激励函数(Activation)
1.什么是Activation普通神经网络出来的数据都是一个线性的数据,将输出来的结果用激励函数处理。2.Torch中的激励函数import torchimport torch.nn.functional as F # 激励函数都在这,nn是神经网络模块from torch.autograd import Variable# 做一些假数据来观看图像,-5到5,取200...原创 2018-07-31 14:30:04 · 1854 阅读 · 0 评论 -
莫烦pytorch学习笔记(三)——激励函数(Actibvation Function)
1.非线性方程我们为什么要使用激励函数?因为激励函数是为了解决我们日程生活中不能用线性方程所概括的问题。什么是线性方程(linear function)?y随x变化而线性变化的方程叫线性方程。可知,非线性方程是y不随x变化线性变化的方程。激励函数的作用就是为了让线性方程变成非线性方程,简而言之就是让直线变弯,“掰弯”线性方程。2.激励函数y=AF(Wx),其中AF指的就是激励函...原创 2018-07-31 12:47:27 · 950 阅读 · 0 评论