PyTorch学习
文章平均质量分 52
零基础开始实践PyTorch深度学习
just kidding°
这个作者很懒,什么都没留下…
展开
-
Pytorch学习(十二)--Inception Module
传送门:Inception_Module本讲视频是对高级CNN进行的一个概览,主要实现了Inception,Resnet,本文专注于Inception模块以及GoogLeNet网络的实现。Inception Moudel代码说明:1、采用1x1卷积核将不同通道的信息融合。使用1x1卷积核虽然参数量增加了,但是能够显著的降低计算量。2、Inception模块分为不同的分支是为了提取到更多的特征,同时也可以加速训练过程。3、Inception Moudel由4个分支组成,最终4个分支在dim=1(c原创 2021-02-20 10:15:13 · 1265 阅读 · 0 评论 -
PyTorch学习(十一)-- Homework_CNN Model
第10讲 CNN Model传送门:Basic CNN Model作业如下:根据讲解视频,自己编写了一个网络,结构如下:3个CONV层,3个激活层(RELU),3个Pooling层,3个FC 层实现代码如下:# -*- coding: UTF-8 -*-'''===============================================@Author :kidding@Date :2021/2/8 14:19@File :Basic_CNN_Exercise@原创 2021-02-08 15:58:27 · 325 阅读 · 1 评论 -
PyTorch学习(十)--Basic CNN Model
传送门:Basic CNN Model说明 1、每一个卷积核它的通道数量要求和输入通道是一样的。这种卷积核的总数有多少个和你输出通道的数量是一样的。2、卷积(convolution)后,C(Channels)变,W(width)和H(Height)可变可不变,取决于是否padding。subsampling(或pooling)后,C不变,W和H变。3、卷积层:保留图像的空间信息。4、卷积层要求输入输出是四维张量(B,C,W,H),全连接层的输入与输出都是二维张量(B,Input_feature)。原创 2021-02-08 15:48:18 · 334 阅读 · 1 评论 -
PyTorch学习(九)--Softmax Classifier
传送门:Softmax Classifier说明: 1、softmax的输入不需要再做非线性变换,也就是说softmax之前不再需要激活函数(relu)。softmax两个作用,如果在进行softmax前的input有负数,通过指数变换,得到正数。所有类的概率求和为1。2、y的标签编码方式是one-hot。我对one-hot的理解是只有一位是1,其他位为0。3、多分类问题,标签y的类型是LongTensor。比如说0-9分类问题,如果y = torch.LongTensor([3]),对应的one-h原创 2021-02-08 11:10:34 · 1196 阅读 · 3 评论 -
PyTorch学习(八)--Load DataSet
传送门:Load Dataset本讲主要是数据集的加载过程。视频中对数据集的加载以及shuffle、batch_size、Epoch解释的很清楚。如图shuffle的作用如下图:具体过程如代码所示:注意:1、Dataset() 是一个抽象函数,不能直接实例化,所以我们要创建一个自己类,继承Dataset继承Dataset后我们必须实现三个函数:init()是初始化函数,之后我们可以提供数据集路径进行数据的加载getitem()帮助我们通过索引找到某个样本len()帮助我们返回数据集大小原创 2021-02-07 18:59:12 · 7572 阅读 · 3 评论 -
PyTorch(七) --处理多维特征的输入
第7讲 处理多维特征的输入传送门 处理多维特征的输入课程代码:# -*- coding: UTF-8 -*-'''===============================================@Author :kidding@Date :2021/2/7 16:15@File :Processing_Multi-Dimensional_Feature_Input@IDE :PyCharm====================================原创 2021-02-07 17:25:49 · 530 阅读 · 2 评论 -
PyTorch(六) --Logistic Regression
课程视频:传送门 Logistic RegressionLogistic Regression Model 和 Linear Model的区别是在线性模型的后面,添加了激活函数(非线性变换),激活函数作用是增加网络的非线性表达。代码实现:# -*- coding: UTF-8 -*-'''===============================================@Author :kidding@Date :2021/2/5 18:15@File :Logistic原创 2021-02-07 15:31:44 · 319 阅读 · 0 评论 -
PyTorch(五) --线性回归
课程视频:传送门 线性回归实现过程:1、建立数据集(Prepare DataSet)2、设计模型(Design Model)'''在进行模型设计时,类中至少要包含 __init__()和forward()两个函数'''class LinearModel(torch.nn.Module): # nn.Module 包含模型训练过程中需要用到的很多方法,需要继承 def __init__(self): #构造函数:__init__() 是用来初始化对象时候默认调用的函数 s原创 2021-02-05 16:51:49 · 235 阅读 · 0 评论 -
PyTorch(四) --反向传播 back propagation
课程视频:传送门 反向传播 Back PropagationTensor和tensor的区别:传送门 Tensor & tensor一、Tensor和tensor的区别在Pytorch官方文档中,对于 Tensor 与 tensor 的定义:传送门:Tensor传送门:tensor简单总结:在PyTorch中,Tensor和tensor都能用于生成新的张量:>>> a=torch.Tensor([1,2])>>> atensor([1., 2.原创 2021-02-04 15:54:09 · 620 阅读 · 1 评论 -
PyTorch(三)——梯度下降 & 随机梯度下降
教程视频:梯度下降算法学习目标:实现梯度下降算法(GD)和随机梯度下降算法(SGD),输出loss关于Epoch的图像。一、梯度下降算法(GD)代码如下(示例):# -*- coding: UTF-8 -*-'''===============================================@Author :kidding@Date :2021/2/3 14:46@File :GD@IDE :PyCharm==========================原创 2021-02-03 16:05:14 · 544 阅读 · 0 评论 -
PyTorch(二)线性模型_作业(3D-LinearModel)
教程视频:线性模型作业题目:实现线性模型(y=wx+b)并输出loss的3D图像。实现代码:# -*- coding: UTF-8 -*-'''===============================================@Author :kidding@Date :2021/2/2 18:12@File :3D_Linear_Model@IDE :PyCharm=================================================原创 2021-02-02 20:18:48 · 1748 阅读 · 4 评论 -
PyTorch(一) 线性模型
教程视频:https://www.bilibili.com/video/av92862340作业题目:实现线性模型(y=wx+b)并输出loss的3D图像。实现代码:# -*- coding: UTF-8 -*-'''===============================================@Author :kidding@Date :2021/1/19 17:31@File :Linear_Model@IDE :PyCharm==============原创 2021-02-02 18:47:53 · 287 阅读 · 0 评论