PyTorch深度学习
文章平均质量分 72
木夕敢敢
这个作者很懒,什么都没留下…
展开
-
《PyTorch深度学习实践》Lecture_11 卷积神经网络进阶 Convolutional Neural Network
B站刘二大人老师的《PyTorch深度学习实践》Lecture_11 GoogLeNet+Lecture_11 卷积神经网络进阶 Convolutional Neural NetworkGoogLeNet要善于找到复杂代码中相同的模块写成函数/类→Inception ModuleInception Module不知道哪个效果好,所以使用多种卷积进行堆叠,通过训练将好的增加权重,不好的降低权重暴力枚举每种超参数,使用梯度下降自动选出最合适的注意每条路的输入输出要一致1x1 co原创 2021-03-30 00:20:06 · 293 阅读 · 0 评论 -
《PyTorch深度学习实践》Lecture_10 卷积神经网络基础 CNN
B站刘二大人老师的《PyTorch深度学习实践》Lecture_10 重点回顾+代码复现Lecture_10 卷积神经网络 Convolutional Neural Network一、重点回顾(一)卷积神经网络的结构(二)卷积层:特征提取1. 单输入通道滤波器filter/卷积核kernel在输入图像上滑动,遍历,并做数乘运算(对应元素相乘)再相加【即互相关运算】得到输出。2. 多输入通道输出通道的高和宽 = 输入通道的高和宽 - 卷积核的高和宽 + 1卷积核通道数 = 输入通原创 2021-03-29 21:21:49 · 402 阅读 · 0 评论 -
《深度学习[Pytorch]》整理02 卷积神经网络
卷积神经网络(Convolutional Neural Network, CNN)卷积神经网络(Convolutional Neural Network, CNN)是受生物学上感受野机制的启发而提出的。卷积神经网络一般是由卷积层、池化层和全连接层交叉堆叠而成的前馈神经网络。全连接层一般在卷积网络的最顶层。卷积神经网络有三个结构上的特性:局部连接、权重共享以及池化。这些特性使得卷积神经网络具有一定程度上的平移、缩放和旋转不变性。和前馈神经网络相比,卷积神经网络的参数少。感受野(Receptive Fie原创 2021-03-17 22:08:29 · 579 阅读 · 0 评论 -
《深度学习[Pytorch]》整理01 前馈神经网络——全连接前馈神经网络
前馈神经网络(Feedforward Neural Network, FNN)◼ 第0层为输入层,最后一层为输出层,其他中间层称为隐藏层◼ 信号从输入层向输出层单向传播,整个网络中无反馈,可用一个有向无环图表示手动实现前馈神经网络模型设计代码实现...原创 2021-03-06 11:10:14 · 3178 阅读 · 0 评论 -
《PyTorch深度学习实践》Lecture_09 多分类问题 Softmax Classifier
[B站刘二大人老师的《PyTorch深度学习实践》Lecture_09(https://www.bilibili.com/video/BV1Y7411d7Ys?p=9) 重点回顾+代码复现Lecture_09 多分类问题 Softmax Classifier一、重点回顾(一)Softmax Layer通过softmax层,使得各项输出>0,且和为1。softmax层的计算如下:举个例子:(二)Loss Function - Cross EntropyCross Entropy in N原创 2021-02-26 21:03:45 · 315 阅读 · 2 评论 -
《PyTorch深度学习实践》Lecture_08 加载数据集 Dataset and DataLoader
[B站刘二大人老师的《PyTorch深度学习实践》Lecture_08(https://www.bilibili.com/video/BV1Y7411d7Ys?p=8) 重点回顾+代码复现Lecture_08 加载数据集 Dataset and DataLoader一、重点回顾(一)三个术语:Epoch, Batch-Size, IterationsEpoch:对所有的训练数据进行一次正向传播和反向传播Batch-Size:每次正向和反向传播的训练样本数Iteration:训练(即权重更新)的原创 2021-02-22 22:39:19 · 195 阅读 · 0 评论 -
《PyTorch深度学习实践》Lecture_07 处理多维特征的输入 Multiple Dimension Input
[B站刘二大人老师的《PyTorch深度学习实践》Lecture_07(https://www.bilibili.com/video/BV1Y7411d7Ys?p=7) 重点回顾+手记+代码复现+报错解决Lecture_07 处理多维特征的输入 Multiple Dimension Input一、重点回顾(一)Multiple Dimension Logistic Regression Model...原创 2021-02-22 21:34:38 · 230 阅读 · 0 评论 -
《PyTorch深度学习实践》Lecture_06 逻辑回归 Logistic Regression
B站刘二大人老师的《PyTorch深度学习实践》Lecture_06 重点回顾+代码复现Lecture_06 逻辑回归 Logistic Regression一、重点回顾原创 2021-02-06 17:18:11 · 497 阅读 · 1 评论 -
《PyTorch深度学习实践》Lecture_05 用Pytorch实现线性回归 Linear Regression with PyTorch
B站刘二大人老师的《PyTorch深度学习实践》Lecture_05 重点回顾+代码复现Lecture_05 用Pytorch实现线性回归 Linear Regression with PyTorch一、重点回顾用Pytorch实现线性回归的四大步骤(一)数据集准备 Prepare Datasetimport torchx_data = torch.Tensor([[1.0], [2.0], [3.0]])y_data = torch.Tensor([[2.0], [4.0], [6.0]])原创 2021-02-04 16:07:11 · 268 阅读 · 0 评论 -
《PyTorch深度学习实践》Lecture_04 反向传播 Back Propagation
B站刘二大人老师的《PyTorch深度学习实践》Lecture_04 重点回顾+手记+代码复现+知识补充Lecture_04 反向传播 Back Propagation一、重点回顾(一)计算图 Computational Graph1. 简单网络的梯度计算(1)线性模型的计算图实例2. 复杂网络的梯度计算(1) 两层神经网路(2)存在问题(3)问题解决(二)链式法则 Chain Rule(1)使用链式法则进行梯度计算(2)使用链式法则进行梯度计算实例二、手记三、原创 2021-02-02 00:20:54 · 262 阅读 · 1 评论 -
《PyTorch深度学习实践》Lecture_03 梯度下降 Gradient Descent
刘二老师的《PyTorch深度学习实践》Lecture_03 重点回顾+手记+代码复现Lecture_03 梯度下降 Gradient Descent梯度的方向是函数变化最快的方向,梯度的负方向是函数下降最快的方向。一、重点回顾(一)(批量)梯度下降 (Batch) Gradient Descent(二)随机梯度下降 Stochastic Gradient Descent注意:批量梯度下降的是用所有的样本进行迭代。 而随机梯度下降是每次随机抽取一个样本进行迭代。(三)小批量随机梯度下降原创 2021-01-29 23:52:39 · 251 阅读 · 0 评论 -
《PyTorch深度学习实践》Lecture_02 线性模型
[刘二老师的《PyTorch深度学习实践》Lecture_02](https://www.bilibili.com/video/BV1Y7411d7Ys?p=2) 重点回顾+代码复现原创 2021-01-29 17:16:37 · 129 阅读 · 0 评论