pytorch
文章平均质量分 67
松松酱
天职师大读书
展开
-
深度学习- 循环神经网络(基础篇)浅析LSTM和-自用笔记8
Using LSTM and GRU一、LSTM是什么?二、LSTM的公式解析三、GRU是什么四、GRU公式解析一、LSTM是什么?二、LSTM的公式解析三、GRU是什么GRU介于RNN 和 LSTM之间,GRU比LSTM性能差,但比LSTM节省计算时间。GRU比RNN性能好,但比RNN消耗计算时间。四、GRU公式解析...原创 2021-01-25 15:57:20 · 184 阅读 · 0 评论 -
深度学习- 循环神经网络(基础篇)采用词嵌入 Embedding的方式-自用笔记8
Embedding• One-hot encoding of words and characters• The one-hot vectors are high-dimension.• The one-hot vectors are sparse.• The one-hot vectors are hard coded.• Do we have a way to associate a vector with a word/character with following specificati原创 2021-01-25 15:42:03 · 449 阅读 · 0 评论 -
深度学习- 循环神经网络(基础篇)Basic_RNN-自用笔记9
循环神经网络(基础篇)Basic_RNN循环神经网络(基础篇)Basic_RNN用于处理具有时间序列的数据的问题,采用权重共享的概念来减少需要训练的权重的数量举例:用前三天的温度、气压、是否下雨,去预测第四天是否下雨,RNN擅长处理带时间序列关系的数据。实际上我们要考虑x1(第一天的天气状况)、x2(第二天的天气状况)、x3(第三天的天气状况)之间的时间序列的关系,因为第二天的天气状况跟第一天的天气有很大程度的关系,部分以来前一天的天气。自然语言,金融股市等等,都是根据时间序列的数据,因此我们要原创 2021-01-24 22:48:48 · 429 阅读 · 0 评论 -
深度学习- 卷积神经网络(基础篇)Basic CNN-自用笔记8
上一讲我们介绍的全连接的神经网络所谓的全连接就是说网络里全都是用的线性层,如果我们的网络全都是这种线性层串联起来,我们就把这种网络叫做全连接的网络接下来我们介绍一种处理图像的卷积的神经网络,卷积层他能保留图像的空间特征。简单介绍一下先是对输入的图像进行卷积,然后进行池化下采样,再进行卷积,再进行池化下采样,再进行view变成一位的tensor,再进行全连接层最后输出十维的张量类型。经过卷积输出的值是通过所有像素加权求和得到的,所以卷积之后的东西包含每个像素的信息。单一通道的卷积的工作原理原创 2021-01-20 17:56:46 · 533 阅读 · 2 评论 -
深度学习-多分类问题- Softmax Classifier-自用笔记8
深度学习-多分类问题 -Softmax Classifier-自用笔记8回顾上一讲我们讲的手动加载文件中的糖尿病数据集的二分类的问题https://blog.csdn.net/qq_42764492/article/details/112750673糖尿病数据集一共有8个feature,输出的y^为是糖尿病的概率p训练了一个模型如下图:基于MNIST Dataset介绍多分类的SoftmaxThere are 10 labels in MNIST dataset,Output a Distri原创 2021-01-20 14:51:19 · 1580 阅读 · 5 评论 -
深度学习-加载数据集 -Dataset and DataLoader-自用笔记7
深度学习- -Dataset and DataLoader-自用笔记7说明:自用笔记1-6都是采用加载全部数据集放到batch中,今天讲解的是采用mini_batch的方法之前采用全部数据集的代码方法如下:采用mini_batch的方法加载数据集采用mini_batch的方法加载数据集需要设置:Epoch, Batch-Size, Iterations三个两的值,如图DataLoader: batch_size=2, shuffle=Truebatch_size=2代表每一个mini_bat原创 2021-01-17 17:51:13 · 1060 阅读 · 2 评论 -
深度学习-处理多维度特征的输入 -Multiple Dimension Input-自用笔记6
深度学习-处理多维度特征的输入 -Multiple Dimension Input-自用笔记6多维度特征的数据集每一行代表一个样本,每一列代表一重要特征Feature一个样本特征多个的计算图如图所示多个样本多个特征的计算图如图所示模型采用一层线性函数self.linear = torch.nn.Linear(8, 1),函数的输入的特征维度为8,输出的维度为1,如下图若线性层函数采用输入的特征维度为8,输出的维度为2,如下图:若线性层函数采用输入的特征维度为8,输出的维度为6,如原创 2021-01-17 15:37:33 · 6113 阅读 · 10 评论 -
深度学习-逻辑斯蒂回归Logistic_Regression-自用笔记5
深度学习-逻辑斯蒂回归Logistic_Regression-自用笔记5逻辑斯蒂回归与线性回归做对比线性回归:Affine Model:????^ = ???? ∗ ???? + ????Loss Function:???????????????? = (ො ???? − ????)2= (???? ∙ ???? − ????)2线性回归是做一个线性的预测。逻辑斯蒂回归:Logistic Regression Model:???? = ????(???? ∗ ???? + ????)Los原创 2021-01-15 18:12:08 · 173 阅读 · 3 评论 -
深度学习-PyTorch官网学习资料-自用笔记4
深度学习-PyTorch官网学习资料-自用笔记4不同的优化器• torch.optim.Adagrad• torch.optim.Adam• torch.optim.Adamax• torch.optim.ASGD• torch.optim.LBFGS• torch.optim.RMSprop• torch.optim.Rprop• torch.optim.SGDRead more example from official tutorial从官网获得更多的例子https://pyt原创 2021-01-14 21:08:38 · 173 阅读 · 1 评论 -
深度学习-如何用pytorch提供的工具来构建线性模型-自用笔记3
深度学习-如何用pytorch提供的工具来构建线性模型-自用笔记3分为四部分1、 Prepare data set 准备数据集2、Design model using Class 设计模型3、 Construct loss and optimizer —using PyTorch API 用 using PyTorch的应用接口API,构造损失函数loss和优化器optimizer4、Training cycle----forward, backward, update 训练过程Prepare原创 2021-01-14 18:21:11 · 249 阅读 · 3 评论 -
深度学习-反向传播Back Propagation-自用笔记2
#深度学习-反向传播Back Propagation-自用笔记2##一个两层的线性模型A two layer neural network???? = ????2 (????1 ∙ ???? + ????1) + ????2如下图所示为第一层的输入X、权重W1、偏置b1的维度。同样的方法可以将两个层的线性模型写出来如下:First Layer、Second Layer如下图两个线性层进行得加没有任何意义,因为经过变换之后又成了一个线性层,线性层进行权重得加完全没有意义,因此需要解决线性层叠原创 2021-01-13 17:33:27 · 248 阅读 · 2 评论