![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch深度学习实践
文章平均质量分 71
endeavor`
no pains, no gains.
展开
-
Pytorch 深度学习实践Lecture_12 Basic RNN
up主 刘二大人视频链接刘二大人的个人空间_哔哩哔哩_BilibiliRNN处理具有序列关系的输入数据, 如天气,股市,自然语言RNN Cell输入包括两部分: ①:t 时刻对应的数据 ② 上一时刻的隐藏单元RNN Cell输出当前时刻的隐藏单元值RNN Cell 计算过程RNN Cell 可以看作是一个线性层: 维度为input_size的向量: 维度为hidden_size的向量: (hidden_size, hidden_siz...原创 2022-05-07 23:41:52 · 517 阅读 · 0 评论 -
Pytorch 深度学习实践Lecture_11 Advanced CNN
up主 刘二大人视频链接刘二大人的个人空间_哔哩哔哩_BilibiliGoogLeNet如下图所示, 当层数过多时, 为了减少代码冗余即将设计中重复出现的层定义成一个类。GoogLeNet模型中将这样的模块称之为Inception Module.Inception Module如下图所示为Inception Module设计,最终这四条路径的输出,按照通道的顺序进行拼接,进而进行下一步。Inception Module 进一步解读参考如下博客:【...原创 2022-05-06 15:09:47 · 563 阅读 · 0 评论 -
Pytorch 深度学习实践Lecture_10 Basic CNN
up主 刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili卷积神经网络上一节课的MNIST 手写数据集使用的是全连接层, 将1*28*28 image 展开成(1,784)的向量譬如,两个在image上的相邻点, 展开后两点距离变远,无法捕获到空间特征所以, 全连接层方式无法获取图像的空间特征。卷积层输入黑白图像:channel = 1彩色图像:channel =3卷积层的输入: Channel (通道数) * Weight (图像宽度) * Hei.原创 2022-05-03 15:58:29 · 915 阅读 · 0 评论 -
Pytorch 深度学习实践Lecture_9 Softmax Classifier
up主 刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili使用Softmax预测多分类问题输出需要满足分布的条件1) 2) 假设 是最后一层的输出, Softmax 公式为示例损失函数(交叉熵)numpy 计算loss示例:import numpy as npy = np.array([1, 0, 0])z = np.array([0.2, 0.1, -0.1])y_pred = np.exp(z) / np.e...原创 2022-04-30 20:53:46 · 1077 阅读 · 0 评论 -
Pytorch 深度学习实践Lecture_8 Dataset and Dataloader
up主 刘二大人视频链接刘二大人的个人空间_哔哩哔哩_BilibiliDataSet类作用:1) 加载数据集2) 数据集索引from torch.utils.data import Dataset表示Dataset的抽象类所有其他数据集都应该进行子类化。所有子类应该override__len__和__getitem____len__提供了数据集的大小__getitem__支持整数索引,范围从0到len(self)DataLoader类作用:..原创 2022-04-28 20:18:37 · 133 阅读 · 0 评论 -
Pytorch 深度学习实践Lecture_7 Multiple Dimension Input
up主 刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili多维输入如下图为糖尿病数据集, 输入为10个样本, 每个样本具有8维特征(怀孕次数,血糖,血压,皮脂厚度,胰岛素,BMI身体质量指数,糖尿病遗传函数,年龄),最后一列为标签(结果),0表示未患糖尿病,1表示患有糖尿病。逻辑回归模型由于输入数据维数增多, 而预测值是标量, 所以模型需要使用矩阵形式做计算说明:1. 乘的权重(w)都一样,加的偏置(b)一样。b变成矩阵时会使用python...原创 2022-04-27 22:53:47 · 1220 阅读 · 0 评论 -
Pytorch 深度学习实践Lecture_6 Logistic Regression
up主 刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili线性回归线性模型 预测:连续实数值线性回归模型预测: 离散值(分类)仿射模型线性回归模型的仿射模型是在线性模型基础上添加了激活函数, 可以将预测值映射到(-1, 1)区间内。损失线性模型的MSE loss:线性回归模型BCE loss:PS:线性模型loss 计算的是一个数轴上两个实数值的距离;线性回归模型loss 计算的是分布的差异...原创 2022-04-24 16:14:43 · 1765 阅读 · 0 评论 -
Pytorch 深度学习实践Lecture_5 Linear Regression with Pytorch
1. 准备数据集2. 设计模型类3. 定义loss以及优化器4. 训练 forward -> backward -> update线性模型 import torchimport matplotlib.pyplot as pltclass LinearModel(torch.nn.Module): """ __init_ and forward function have to be implemented """ de..原创 2022-04-21 21:53:49 · 79 阅读 · 0 评论 -
Pytorch 深度学习实践Lecture_4 Back Propagation
反向传播可以通过链式法则,使得梯度在计算图中进行反向传播在Pytorch中, Tensor 对象包含data 和 grad 两个属性 data:用于存放tensor,是数据本体。 grad:存放data的梯度值(默认不计算梯度)在Pytorch中, Tensor之间的计算即为动态生成计算图(谨记)import torchimport matplotlib.pyplot as pltx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4...原创 2022-04-20 21:22:41 · 601 阅读 · 0 评论 -
Pytorch 深度学习实践Lecture_3 Gradient Descent
up主 刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili1. 梯度下降算法该算法中,损失值为梯度更新公式为 , 计算的是所有样本的损失和梯度下降有一个问题: 若遇到鞍点时, 则梯度无法更新2. 随机梯度下降算法为了解决上述问题, 采取随机梯度下降算法随机梯度下降算法中,梯度更新公式为, 计算的是某一个随机样本的损失由于单个样本带噪音, 所以在遇到鞍点时,梯度可以继续更新随机梯度下降算法也有一个问题:计算下一个梯度时,依赖上一次...原创 2022-04-20 17:20:11 · 744 阅读 · 0 评论 -
Pytorch 深度学习实践Lecture_2 Linear Model
up主 刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili给的示例为模型y = wximport numpy as npimport matplotlib.pyplot as pltx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]def forward(x): return x * wdef loss(x, y): y_pred = forward(x) return (y_pred ..原创 2022-04-20 15:05:48 · 642 阅读 · 0 评论