![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch学习
文章平均质量分 84
会游泳的小雁
吃喝玩乐也要努力拼搏
展开
-
pytorch 深度学习实践 第12讲 循环神经网络高级篇 Basic RNN
第12讲 循环神经网络高级篇 Basic RNNpytorch学习视频——B站视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及源码,笔记纯属个人理解 。全连接网络以前也叫做稠密网络Dense 或者 深度网络Deep——DNN1. RNN的基本概念处理序列化输入理解1一个RNN Cell将一个多维向量映射成不同维数的向量,本质上相当于是一个线性层。如图所示理解2展开来看,就是前面特征的输入经过RNN Cell层之后的输出h1(隐藏层原创 2021-09-22 19:42:00 · 606 阅读 · 2 评论 -
pytorch 深度学习实践 第11讲 卷积神经网络高级篇 CNN
第11讲 卷积神经网络高级篇 Advanced CNNpytorch学习视频——B站视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及源码,笔记纯属个人理解,如有错误欢迎路过的大佬指出 。1. GoogleNet网络结构如图所示,GoogleNet,常被用作基础主干网络,图中红色圈出的一个部分称为Inception块。2. Inception Module解析不知道选取什么kernel,将卷积核都使用一遍,对效果比较好的卷积核赋予更高的权重,将原创 2021-09-01 13:40:10 · 687 阅读 · 0 评论 -
pytorch 深度学习实践 第10讲 卷积神经网络(基础篇)_代码
pytorch学习视频——B站视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili视频中所涉及的代码如下:basic_cnn.py 一个简单的卷积层padding.py 卷积层参数——padding填充stride.py 参数——步长maxpooling.py 下采样——最大池化cnn.py 一个简单的卷积神经网络cnn_job.py 作业——修改网络结构1. basic_cnn.py 一个简单的卷积层 示范卷积层所做的工作import torchin_c原创 2021-08-24 20:27:29 · 686 阅读 · 0 评论 -
pytorch 深度学习实践 第10讲 卷积神经网络(基础篇)
pytorch学习视频——B站视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及小练习源码,本节代码有点多,另外单独写的笔记纯属个人理解,如有错误欢迎路过的大佬指出 。1. 基本概念全连接网络全连接层:像前几节中的用到的线性层那样的网络层,称为全连接层。也就是线性层中的每一个输入结点都会参与下一层任何一个输出结点的计算上,这样的线性层叫做全连接层。如果整个网络都是用这种全连接层连接在一起的,那就称为全连接网络。卷积神经网路直接对图像原创 2021-08-24 17:43:06 · 523 阅读 · 0 评论 -
pytorch 深度学习实践 第8讲 加载数据集
前言:dataset——构造数据集,数据集应该支持索引操作;dataloader——为训练提供mini-batch数据原创 2021-08-18 09:44:52 · 552 阅读 · 5 评论 -
pytorch 深度学习实践 第7讲 处理多维特征输入
本文从logistic 回归模型来讲解了多维特征输入的处理,具体内容包括多维logistic的模型讲解,生成多层神经网络的简单原理和过程,以及最后的代码实现。原创 2021-08-16 22:15:18 · 672 阅读 · 0 评论 -
pytorch 深度学习实践 第6讲 逻辑斯蒂回归
第6讲 逻辑斯蒂回归logistic regressionpytorch学习视频——《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及视频中的手敲源码,可能会有些许改动,笔记纯属个人理解,如有错误勿介或者欢迎路过的大佬指出 。1. torchversion数据集# mnist数据集,手写数字识别mnist_train_set = torchvision.datasets.MNIST(root='./dataset/mnist', train=Tru.原创 2021-08-16 14:04:33 · 680 阅读 · 4 评论 -
pytorch 深度学习实践 第5讲 pytorch实现线性回归
第5讲 pytorch实现线性回归Linear Regression with PyTorchpytorch学习视频——B站视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili以下是视频内容笔记以及小练习源码,笔记纯属个人理解,如有错误勿介或者欢迎路过的大佬指出 。目录1. 构造神经网络一般步骤2. 第一步——准备数据集 prepare dataset3. 第二步——模型设计4. 第三步——构造损失函数和优化器4. 第四步——训练5. 本节代码..原创 2021-08-13 11:32:49 · 1850 阅读 · 1 评论 -
pytorch 深度学习实践 第4讲 反向传播
1. 一个简单的神经网络两层,都是线性模型。存在一个问题是这个神经网络可以直接通过化简最终变成一层(权重训练失去了意义),如图公式。为了防止这种情况发生,在每一层网络输出时加入一个非线性函数(即激活函数),来阻止这种化简。2. 反向传播由输出(损失函数)来调整输入(权重)的过程在如下单层网络中,已知由损失函数对输出Z的偏导∂L∂z\frac{\partial L}{\partial z}∂z∂L(也是由loss求偏导一层一层传回来的),一层一层传播求出损失函数对该层网络的输入x和W的偏导(原创 2021-08-10 17:51:13 · 757 阅读 · 3 评论 -
pytorch 深度学习实践 第三讲 梯度下降算法
以下是视频内容的个人笔记,主要是梯度下降算法的理解和简单公式实例,以及两个视频中的小练习源码,如有错误请指出,三扣。原创 2021-08-07 18:14:21 · 927 阅读 · 2 评论 -
pytorch 深度学习实践 第二讲 线性模型
pytorch学习视频——B站视频链接:《PyTorch深度学习实践》第二讲 线性模型主要包括两个源码文件(视频中的练习和作业),内容包括线性模型的训练和三维作图,主要用到zip函数,meshgrid函数三维作图。源代码:1. linear_model.py 手敲源码2.作业 linear_job原创 2021-08-04 11:31:12 · 643 阅读 · 2 评论