![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch学习
文章平均质量分 55
啥都不会的研究生←_←
这个作者很懒,什么都没留下…
展开
-
Pytorch深度学习实践 第十三讲 循环神经网络(高级篇)
数据集:原创 2021-07-24 18:09:02 · 1465 阅读 · 2 评论 -
Pytorch深度学习实践 第十二讲 循环神经网络(基础篇)
循环神经网络RNN:用来处理有序列关系的输入,比如预测天气时,今天的天气要依赖于上一天的天气数据,多用于天气、股票、自然语言处理等。 RNN Cell结构 所有的RNN Cell是同一个Linear模块,只不过是循环使用它对不同的输入序列来进行计算和更新权重: 初始化H0=0,是个向量 for Xi in X: Hi = Linear(Xi, Hi-1) torch.nn.RNNCell()模块 seqLen是序列长度,即x1~x3 inputSize是每个...原创 2021-07-24 16:16:10 · 1764 阅读 · 2 评论 -
Pytorch深度学习实践 第十一讲 卷积神经网络(高级篇)
减少代码冗余:将某些重复调用的代码封装成类或函数。 GoogleNet 网络结构 有很多相同的Inception模块组成,就将此模块写成一个类,方便重复调用。 Inception模块的结构 关于为什么采用1×1的卷积核:通过采用1×1的卷积核计算量减少了10倍。 示例代码: import torch.nn as nn import torch.nn.functional as F import torch from torch.utils.data import Data...原创 2021-07-23 18:13:12 · 879 阅读 · 0 评论 -
Pytorch深度学习实践 第十讲 卷积神经网络(基础篇)
全连接神经网络:全都是线性层串起来。 卷积神经网络CNN: 3通道卷积过程: n通道输入得到m通道输出:(每一个filter都有n个卷积核,输入通道数=卷积核数,filter数=输出通道数 ) 单个卷积层示例代码: import torch in_channel,out_channel = 5,10 kernel_size = 3 batch_size = 1 #小批量的第几个 w, h = 100, 100 input = torch.randn(batc...原创 2021-07-22 16:23:10 · 552 阅读 · 0 评论 -
Pytorch深度学习实践 第九讲 多分类问题
使用SoftMax分类器进行多分类问题(其输入不需要Relu激活,而是直接连接线性层),经过SoftMax分类器后满足:1.大于等于0,2.所有类别概率和为1. Softmax函数: 使用Numpy计算交叉熵损失的过程:(One-hot是一行或一列只有一位是1的矩阵) 使用Pytorch计算交叉熵损失:(torch.LongTensor([0])对应的one-hot是[1 0 0],即只有索引0对应的位置是1) CrossEntropyLoss()就是将softmax-lo...原创 2021-07-22 14:55:40 · 499 阅读 · 0 评论 -
Pytorch深度学习实践 第八讲 加载数据集
Epoch:所有样本都进行一次forward和backward。 Batch_size:训练样本中一次forward和backward的样本数。 Iteration:内迭代的次数,即训练集中有多少个batch_size,总样本数N/Batch_size。 Dataloader中的batch和shuffle: 示例代码:(还是diabetes.csv.gz数据集) import torch import numpy as np from torch.utils.data import Data原创 2021-07-22 10:34:38 · 418 阅读 · 0 评论 -
Pytorch深度学习实践 第七讲 处理多维特征的输入
一行表示一个样本,用(x1-x8)8个特征对这一个样本进行表示,特征的维度是一列 (O即手写图中的Z)给Linear设置不同的输入、输出维度。 把多个类似于logisc回归这种线性变换单元首尾相连,就能构造多层神经网络。 ...原创 2021-07-21 21:28:55 · 511 阅读 · 0 评论 -
Pytorch深度学习实践 第六讲 逻辑回归
分类问题不是让“预测值”等于“类别”,而是计算属于每个类别的概率,要概率最大的。(将预测值从实数空间映射到[0,1])原创 2021-07-21 14:45:43 · 435 阅读 · 0 评论 -
Pytorch深度学习实践 第五讲 用pytorch实现线性回归
模型训练的步骤(基本通用): 1.准备数据集; 2.设计模型来计算; 3.构造损失函数和优化器,using pytorch API; 4.循环计算 forward、backward、update 要确定w,就要知道x和的维度,上图中y:3×1,x:3×1,w就得是3×3的。 计算图中的Linear Unit就可以直接用torch.nn.Linear(in_feature,out_feature,bias=True)来构造,in_feature是输入维度(维度是矩阵的列),out_fe..原创 2021-07-20 16:47:11 · 321 阅读 · 0 评论 -
Pytorch深度学习实践 第四讲 反向传播
确定输入和隐层矩阵→得到权重w矩阵。 Forward and Backward: 线性模型的计算图,正向和反向过程: 关于Tensor:存数据,包含标量、向量、矩阵等。 示例代码:(代码是在构建计算图,要有这种思维。) import torch x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] #tensor中包含data(w)和grad(loss对w求导) w = torch.Tensor([1.0]) #w=1.0 w...原创 2021-07-20 14:38:38 · 456 阅读 · 0 评论 -
Pytorch深度学习实践 第三讲 梯度下降算法
1.梯度下降 梯度下降算法:每次迭代都朝梯度下降最快的方向走。 梯度优化:找使目标损失函数最小的权重组合的任务(不一定得到最优,只能得到局部最优)。 权重更新的推导: 示例代码: import numpy as np import matplotlib.pyplot as plt w = 1.0 x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] def forward(x): '求预测值:y_hat = x * w' ..原创 2021-07-19 16:50:38 · 492 阅读 · 0 评论 -
pytorch深度学习实践 第二讲 线性模型
机器学习过程:Dataset→Model Select→Training→推理 过拟合:训练集上有很好的结果,但是训练集外却不能很好的拟合数据。主要原因是训练集存在噪声或训练数据太少。 泛化:训练出的模型在训练集外同样适用。 数据集:训练集(通常还会分成训练集和开发集,用作模型评估)和测试集。 线性模型:y_hat = f(x) = wx + b,训练的目的就是得到w和b。 损失loss:预测值与真实值之间的差值。 平均平方误差(Mean Square Error)MSE:cost .原创 2021-07-19 15:20:08 · 186 阅读 · 0 评论 -
Pytorch深度学习实践 第一讲
Deep Leanning只是AI的一小部分 forward/backwark:正向传播,反向传播,都是求偏导数进行梯度计算。原创 2021-07-19 10:27:47 · 194 阅读 · 0 评论