Pytorch
文章平均质量分 51
学习
张先生-您好
学习的同时记录,记录的同时分享,分享的同时交流,交流的同时学习。
展开
-
LSTM输出输出维度图示
LSTM输出输出维度图示文章目录LSTM输出输出维度图示单向单层单向多层双向单层双向多层参考单向单层# 构造RNN网络,x的维度5,隐层的维度10,网络的层数2rnn_seq = nn.RNN(5, 10, 1)# 构造一个输入序列,句长为 6,batch 是 3, 每个单词使用长度是 5的向量表示# 输入维度为:[seq_len,batch_size,output_dim]x = torch.randn(6, 3, 5)#out,ht = rnn_seq(x,h0)out, ht = r原创 2022-05-11 11:08:18 · 3861 阅读 · 0 评论 -
Torch中Tensor.contiguous()函数
转载原文:1.函数定义 Returns a contiguous tensor containing the same data as self tensor. 返回一个与原始tensor相同元素数据的 “连续”tensor类型 If self tensor is contiguous, this function returns the self tensor. 如果原始tensor本身就是连续的,则返回原始tensor 2.定义理解 定义本身有两个重要的点: 对原始转载 2020-11-15 21:31:50 · 1797 阅读 · 0 评论 -
pytorch之分组卷积
分组卷积推荐:请先看最底部的参考连接 ????普通卷积说明:普通卷积为组数为1的特殊分组卷积。class Conv(nn.Module): def __init__(self, in_ch, out_ch, groups): super(Conv, self).__init__() self.conv = nn.Conv2d( ...原创 2020-04-19 16:36:48 · 4661 阅读 · 1 评论 -
安装pytorch
命令:pip install torchvision==0.5 pytorch -i https://pypi.tuna.tsinghua.edu.cn/simple原创 2020-02-21 09:09:45 · 133 阅读 · 0 评论 -
Pytorch之卷积网络
Pytorch之卷积网络卷积操作互操作原理图 虽然卷积层得名于卷积(convolution)运算,但我们通常在卷积层中使⽤更加直观的互相关(crosscorrelation)运算。计算如下:代码原理def corr2d(X, K): """计算卷积操作(互操作)""" h, w = K.shape # 得到卷积后 Y = t....原创 2020-02-19 14:46:58 · 352 阅读 · 0 评论 -
Pytorch之欠拟合和过拟合
Pytorch之欠拟合和过拟合 首先,我们需要区分训练误差( training error)和泛化误差( generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意⼀个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。而在机器学习上的模型应该关注降低泛化误差.影响因素模型复杂度训练数据集的...原创 2020-02-19 14:40:58 · 764 阅读 · 0 评论 -
Datawhale人工智能学习打卡
第一次打卡Pytorch之线性回归Pytorch之多层感知机与Softmax备注:循环神经网络的知识点未接触过, 所以暂时还未打卡,过几天会补上,=原创 2020-02-14 20:54:51 · 163 阅读 · 0 评论 -
Pytorch之多层感知机与Softmax
Pytorch之多层感知机与Softmax激活函数目的:增加网络的非线性拟合的能力绘制激活函数#定义一个激活函数的的绘制函数import torch as timport matplotlib.pyplot as plt import numpy as npfrom torch.nn import initfrom torch import nnimport syssys...原创 2020-02-14 20:46:50 · 785 阅读 · 0 评论 -
Pytorch之线性回归
Pytorch之线性回归线性回归原理加载数据feature = 2samples = 1000# 设置参数true_w = [2, -3.4]true_b = 4.2# 生成数据data = t.randn(samples, feature, dtype=t.float32)labels = true_w[0] * data[:, 0] + true_w[1] * da...原创 2020-02-14 18:53:53 · 278 阅读 · 0 评论 -
data和deach的区别
import torch as tdataa = t.tensor([1,2,3.], requires_grad =True)out = a.sigmoid()outtensor([0.7311, 0.8808, 0.9526], grad_fn=<SigmoidBackward>)c = out.datac.zero_()tensor([0., 0., 0...原创 2019-09-15 10:27:02 · 1420 阅读 · 0 评论 -
torch.stack()的使用
import torch as t数据生成a = t.arange(1, 10).reshape(3, 3)atensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])b = t.arange(10, 100, 10).reshape(3, 3)btensor([[10, 20, 30], [40, 50...原创 2019-09-15 10:25:34 · 1528 阅读 · 0 评论 -
torchnet的使用
import torchnettnt.MeterMeters provide a standardized way to measure a range of different measures, which makes it easy to measure a wide range of properties of your models.有三个基础的方法:add() which a...转载 2019-09-15 10:23:36 · 881 阅读 · 0 评论 -
猫狗分类
猫狗分类问题0.参考Pycharm快捷键分类模型评估ResNet34网络1.总体框架梳理1.1 数据集数据集为Kaggle中Cat&Dog数据集数据集下载具体如下:1.2 模型ResNet34问题:(1)为什么网络的深度很重要?答:因为CNN能够提取Low/mid/high-level的特征,网络的层数越多,意味着提取到的不同等级的特征越丰富。并且,越...原创 2019-09-15 10:17:01 · 3570 阅读 · 0 评论 -
Pytorch常见问题
Jacobian mismatch for output 0 with respect to input 0,numerical链接1AttributeError: cannot assign module before Module.__init__() call调用了自定义的类,但是 在自定义的类的__init__函数下面没有写super( XXX, self ).i...原创 2019-09-15 10:02:39 · 1095 阅读 · 0 评论