PyTorch
乌啦啦呜啦啦呜啦呜啦啦
这个作者很懒,什么都没留下…
展开
-
PyTorch中gather()函数的用法
沿给定轴,按照索引张量将原张量的指定位置的元素重新聚合成一个新的张量 torch.gather(input, dim, index, out=None) → Tensor 参数含义: input (Tensor) – 源张量 dim (int) – 索引的轴 index (LongTensor) – 聚合元素的下标(index类型需是torch.longTensor) out (Tensor, ...原创 2020-02-23 15:21:36 · 1463 阅读 · 0 评论 -
动手学深度学习PyTorch版 | (4)循环神经网络
文章目录RNNGRUstep 1 :载入数据集step 2 :初始化参数 RNN RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) GRU ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系 重置⻔有助于捕捉时间序列⾥短期的依赖关系; 更新⻔有助于捕捉时间序列⾥⻓期的依赖关系 step 1 :载入数据集 import os os.listdir('/home/kesci/i...原创 2020-02-18 20:34:48 · 382 阅读 · 0 评论 -
动手学深度学习PyTorch版 | (3)过拟合、欠拟合及其解决方案
文章目录一、过拟合、欠拟合概念二、多项式函数拟合实验2.1 初始化模型参数2.2 定义、训练和测试模型 一、过拟合、欠拟合概念 训练模型中经常出现的两类典型问题: 欠拟合:模型无法得到较低的训练误差 过拟合:模型的训练误差远小于它在测试数据集上的误差 在实践中,我们要尽可能同时应对欠拟合和过拟合。有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 - 模...原创 2020-02-17 21:29:34 · 826 阅读 · 0 评论 -
pyTorch.randn()、rand()、cat()、pow()、scatter_()、.squeeze() 、.unsqueeze()、gather()
torch.randn() torch.randn(*sizes, out=None) → Tensor 返回一个张量,包含了从标准正态分布(均值为0,方差为 1,即高斯白噪声)中抽取一组随机数,形状由可变参数sizes定义。 参数: sizes(int…): 整数序列,定义了输出形状 out (Tensor, optinal) : 结果张量 例子: >>> torch.r...原创 2020-02-17 14:56:58 · 888 阅读 · 0 评论 -
动手学深度学习PyTorch版 | (2)文本预处理;语言模型;循环神经网络基础
文本预处理 文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤: 1.读入文本 2.分词 3.建立字典,将每个词映射到一个唯一的索引(index) 4.将文本从词的序列转换为索引的序列,方便输入模型 语言模型 一段自然语言文本可以看作是一个离散时间序列,给定一个长度为TT的词的序列w1,w2,…,wTw1,w2,…,wT,语言模型的目...原创 2020-02-14 20:06:02 · 222 阅读 · 0 评论 -
动手学深度学习PyTorch版 | (1)线性回归、softmax与分类、多层感知机
一、线性回归 线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、⽓温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是⼀个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。softmax回归则适用于分类问题。 –线性回归的基本要素 以一个简单的房屋价格预测作为例子来解释线性回归的基本要素。⽬标是预测一栋房...原创 2020-02-14 19:45:15 · 674 阅读 · 0 评论