![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
weixin_42713739
这个作者很懒,什么都没留下…
展开
-
pytorch RNN:循环神经网络 代码详解 注释详细
import torchfrom torch import nn, optimfrom torch.autograd import Variablefrom torch.utils.data import DataLoaderfrom torchvision import transformsfrom torchvision import datasets# 定义超参数batch_size = 100learning_rate = 1e-3num_epoches = 2# 下载训练原创 2020-09-23 14:24:06 · 778 阅读 · 0 评论 -
pytorch nn.LSTM详解 代码里有详细的参数说明
nn.LSTM(in_dim, hidden_dim, n_layer, batch_first=True):LSTM循环神经网络参数:input_size: 表示的是输入的矩阵特征数hidden_size: 表示的是输出矩阵特征数num_layers 表示堆叠几层的LSTM,默认是1bias: True 或者 False,决定是否使用biasbatch_first: True 或者 False,因为nn.lstm()接受的数据输入是(序列长度,batch,输入维数),这和我们cnn输入的方式不原创 2020-09-23 11:05:36 · 6129 阅读 · 0 评论 -
pytorch cnn卷积神经网络代码详解 注释详细
"""---------------------cnn卷积神经网络---------------------"""import torchfrom torch import nn, optimimport torch.nn.functional as Ffrom torch.autograd import Variablefrom torch.utils.data import DataLoaderfrom torchvision import transformsfrom torchvisi原创 2020-09-21 14:11:23 · 4961 阅读 · 2 评论 -
pytorch nn.MaxPool2d 池化层深度讲解及代码举例
首先上理论:池化层是夹在连续的卷积层的中间层,池化层可以非常有效地缩小矩阵的尺寸。从而减少最后全连接层中的参数。使用池化层既可以加快计算速度也有防止过拟合问题的作用。池化层前向传播的过程中也是通过一个类似过滤器的结构完成的,池化层中的计算不是节点的加权和,而是采用了更加简单的最大值或者平均值计算。使用最大值操作的池化层被称之为最大池化层(max pooling),使用平均值操作的池化层称之为平均池化层(average pooling),总的来说,池化层的作用是可以压缩数据和参数的量, 减小过拟合。如下原创 2020-09-21 10:43:55 · 6604 阅读 · 0 评论 -
pytorch 前馈神经网络代码举例说明
"""@author: liaoxingyu@contact: sherlockliao01@gmail.com------------------------------前馈神经网络------------------------"""import torchfrom torch import nn, optimfrom torch.autograd import Variablefrom torch.utils.data import DataLoaderfrom torchvi原创 2020-09-18 15:12:31 · 815 阅读 · 0 评论 -
pytorch nn.Module调用过程详解及weight和bias的值的初始化
首先说明一点:nn.Module 是所有神经网络单元(neural network modules)的基类pytorch在nn.Module中,实现了__call__方法,而在__call__方法中调用了forward函数。举例说明:x = torch.randn(2, 3) #input 2*3m = torch.nn.Linear(3, 2)#output 2*2output = m(x)print(output)输出结果: tensor([[ 0.1918, -0.1055],原创 2020-09-18 11:40:36 · 9192 阅读 · 0 评论 -
pytorch函数详解 附带测试demo
“”"-------------------torch 函数详解----------------------------“”"import numpy as npimport torchfrom torch.autograd import Variablefrom torch import nnimport matplotlib.pyplot as plt“”“1.torch.is_tensor(x):如果obj 是一个pytorch张量,则返回True”""x = torch.Tenso原创 2020-09-16 18:09:35 · 682 阅读 · 0 评论 -
pytorch 逻辑回归代码实现 里面有详细注释
"""---------------逻辑回归·----------------------------"""import torchfrom torch import nn, optimimport torch.nn.functional as Ffrom torch.autograd import Variablefrom torch.utils.data import DataLoaderfrom torchvision import transformsfrom torchvision原创 2020-09-16 17:16:06 · 202 阅读 · 0 评论 -
pytorch DataLoader详细介绍 代码举例说明
batch_size、iteration、epoch简介:batch_size:每批数据量的大小。深度学习通常用SGD的优化算法进行训练,也就是一次(1 个iteration)一起训练batch_size个样本,计算它们的平均损失函数值,来更新参数。iteration:1个iteration即迭代一次,也就是用batchsize个样本训练一次。epoch:1个epoch指用训练集中的全部样本训练一次,此时相当于batchsize 等于训练集的样本数。Dataloader参数详解dataset(Da原创 2020-09-16 16:09:25 · 1600 阅读 · 5 评论 -
pytorch线性回归代码实现 测试,保存,加载模型 有详细注释
"""----------------------线性回归-----------------------------"""import torchfrom torch import nn, optimfrom torch.autograd import Variableimport numpy as npimport matplotlib.pyplot as plt#1.-----首先我们需要给出一系列的点作为线性回归的数据,使用numpy来存储这些点。----x_train = np.a原创 2020-09-15 15:56:48 · 532 阅读 · 0 评论