深度学习
海棠未眠d
常怀感恩之心
展开
-
2021-08-15
Python集合set用法1. 定义集合set:它和dict类似,不同之处是set只存储key,并且key是不可变对象,而且是不重复的;简单总结:dict和set在定义的时候都用:{},list在定义的时候用:[],元祖tuple定义的时候用(),但是他们在取元素的时候都用到的是[];2. 定义并初始化set:3.set中添加元素 s.add(key),可以重复添加,但是无效:4. set删除元素s.remove(key):1. 定义集合set:它和dict类似,不同之处是set只存储key,并且k原创 2021-08-15 22:47:27 · 97 阅读 · 0 评论 -
2021-08-14
Python字典dict总结1. 定义并初始化字典:1. 定义并初始化字典:# 1. 定义并初始化字典: # 字典的两种定义方式,一种是用花括号的形式来表明这是个字典:{’键必须用引号引起来‘ = 值}; # 通过函数的形式定义dict(参数:键 = 值),键不用引号引起来; # 下面这两种方式,一种是 = ,一种是 : 特别需要记忆: d = {'小明': 99, '小胡': 88, '小鹅': 98} di = dict(小明 = 99, 小胡 =原创 2021-08-15 18:43:22 · 207 阅读 · 0 评论 -
FCN_1
import osimport randomimport numpy as npimport torchfrom torch.utils.data import Datasetimport cv2from torch.utils.data import DataLoaderimport torch.nn as nnfrom torch.autograd import Variab...原创 2019-08-29 15:14:56 · 270 阅读 · 1 评论 -
Pytorch 之 PolyRegression
PloyRegression:在 notebook上用代码块来实现导入一些常常用的包:import torchimport numpy as npfrom torch.autograd import Variablefrom torch import nn,optimimport matplotlib.pyplot as plt数据的准备阶段:def make_features(...原创 2019-08-22 10:13:33 · 832 阅读 · 0 评论 -
PyTorch 之 优化算法 torch.optim
各种优化算法在 torch.optim 这个包里面torch.optim 这个包里面有很多的优化算法,比如我们常用的随机梯度下降算法,添加动量的随机梯度下降算法。&&一、原理训练数据的终极目的是得到一个训练好的模型,即这个模型里面的参数是最优的,也就是这些参数使得损失函数达到了最小,或者说模型收敛了(参数不再改变了)二、 一阶优化算法什么是梯度:梯度就是导数,梯度是...原创 2019-08-20 17:26:08 · 4248 阅读 · 1 评论 -
激活函数(ReLU):nn.ReLU(inplace=True)
nn.ReLU(inplace=True)参数inplace=True:inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出inplace:can optionally do the operation in-place. Default: False注: 产生的计算结果不会有影响。利用in-place计算可以节省内(显)存,同时还可以省去反复申请和释放内...原创 2019-08-11 21:38:11 · 19199 阅读 · 0 评论 -
Pytorch 之 nn
一、先介绍一下nn.Mudule当学习到神经网络这一模块的时候,就经常出现 nn.Module,实际上这个是习以为常的叫法,具体的:torch.nn 是一个包,这个包里面有Module类,一般我们把 torch.nn 别称为:as nn,故引用Module类的时候就用的nn.Module,神经网络所有模型的构建都是从nn.Module这个基类继承的。二、torch.nn :神经网络所用到的所...原创 2019-08-20 16:10:22 · 254 阅读 · 0 评论 -
one-hot和softmax
https://blog.csdn.net/afgasdg/article/details/84346931https://www.jianshu.com/p/db6f7363acd5原创 2019-08-24 11:18:52 · 1353 阅读 · 0 评论 -
Pytorch之Dataset(数据类)、DataLoader(方法)
** 很多东西如果学过去,可能真的学过去了,当你需要用的时候,可能你不记得你学过;但是你面对不懂的知识,突然发现你学过,这样可能效果更好。不是为了学习而学习**一、 Pytorch提供了读取数据和对数据进行预处理的方法和类(可以简单地理解常用的方法和类):1.torch.utils.data.Dataset提供的类:Dataset,它是一个抽象类,那么继承和重写这个类就可以定义自己的数据类,只...原创 2019-08-20 14:33:59 · 8790 阅读 · 0 评论 -
ReLU之参数 inplace=True
在下采样的过程中,我们常常用ReLU(inplace=True),具体的含义:import torchfrom torch import nn as nnm = nn.ReLU(inplace=True)input = torch.randn(10)print(input)output = m(input)print(output)print(input)tensor([-0....原创 2019-08-24 09:24:46 · 10449 阅读 · 0 评论 -
Variable——Pytorch中的数据类型
1.介绍Variable实际上,Variable是Torch里的一种数据类型,他与tensor没有什么很大的区别,但是他们属于不同的数据类型,Variable对象有更多的属性。主要的区别如下:①、Variable类型的变量具有自动求导的功能②、Variable类型的变量会被放到一个计算图中,Variable类型的变量具有三个属性:data、grad、grad_fn:data: 取出Var...原创 2019-08-20 10:43:49 · 4823 阅读 · 3 评论 -
上采样之双线性插值法
上采样之双线性插值法上采样的定义上采样的类型:一、双线性插值:二、转置卷积 :三、上采样(unsampling)四、上池化(unpooling)上采样的定义**上采样实际上是一个统称 **。在下采样的过程中,我们把一张图片的特征提取出来,实际上是把图片的关键部分提取出来的,图片的分辨率就降低了,实际上图片缩小了;在上采样过程中,要恢复图片的大小,提高图片的分辨率,就要用到一些方法,任何可以让图...原创 2019-08-19 11:37:45 · 28729 阅读 · 28 评论 -
Pytorch之LinearRegression
任务内容:学习《线性单元和梯度下降》相关内容,拟合一元二次方程“y = 2原创 2019-07-17 18:20:29 · 774 阅读 · 0 评论 -
torch.linspace,unsqueeze()以及squeeze()函数用法 / torch.randn和torch.rand的区别
1.torch.linspace(start,end,steps=100,dtype) <线性间距向量>作用是返回一个一维的tensor(张量),包含在区间start和end上均匀间隔的step个点,输出张量的长度由steps决定,其中dtype是返回的数据类型。import torchprint(torch.linspace(-1,1,5))输出结果为:tensor([-1...原创 2019-07-17 17:46:45 · 526 阅读 · 0 评论 -
pytorch基础
一、Tensor (张量)import torchfrom torch.autograd import Variableimport numpy as np#tensor 张量a = torch.Tensor([[2,3],[4,8],[7,9]])print('a is:{}'.format(a))print('a size is:{}'.format(a.size()))a...原创 2019-07-17 17:02:27 · 272 阅读 · 0 评论 -
Pytorch之三层全连接神经网络实现MNIST手写数字分类
net.py :from torch import nnclass SimpleNet(nn.Module): def __init__(self, in_dim, n_hidden_1, n_hidden_2, out_dim): super(SimpleNet, self).__init__() self.layer1 = nn.Sequentia...原创 2019-07-19 15:09:02 · 2021 阅读 · 0 评论 -
Pytorch之PolyRegression
深度学习任务2任务内容:学习《线性单元和梯度下降》相关内容,拟合一元二次方程“y = 2原创 2019-07-18 13:21:35 · 341 阅读 · 0 评论 -
torch.cat() 函数用法
torch.cat是将两个张量(tensor)拼接在一起,cat是concatnate的意思,即拼接,联系在一起。使用torch.cat((A,B),dim)时,除拼接维数dim数值可不同外其余维数数值需相同,方能对齐。C = torch.cat( (A,B),0 ) #按维数0拼接(竖着拼)C = torch.cat( (A,B),1 ) #按维数1拼接(横着拼)>&g...原创 2019-07-18 13:09:50 · 49439 阅读 · 1 评论 -
深度学习任务1
深度学习任务一任务内容:学习《感知机》相关内容,使用感知机实现“or函数”。输入数据:[[0, 0], [0, 1], [1, 0], [1, 1]]对应标签:[0, 1, 1, 1]输出:** 权重和偏置,以及程序运行时间 **。from __future__ import print_functionfrom functools import reduce #...原创 2019-04-29 23:57:27 · 420 阅读 · 0 评论