深度学习
柏柏柏
进阶路
展开
-
豆瓣镜像源下载
pip install 包名 -i http://pypi.douban.com/simple/ --trusted-host pypi.douban.com原创 2021-04-06 09:05:18 · 1616 阅读 · 0 评论 -
如何在Windows下安装git
1,git下载官网链接:https://git-scm.com/选择Windows版本点击下载即可网盘链接:https://pan.baidu.com/s/1E75zlkLGCo_82cgcRgh88w 提取码:kutd2,在终端中使用git1:点击运行Git文件运行下载git,并选择盘符安装,我安装在了D盘里2:打开安装路径选中cmd文件夹,shift+右击,复制路径(如:U:\git for windows\Git\cmd)在桌面搜索:编辑系统环境变量添加系统环境变量原创 2021-01-25 16:08:52 · 333 阅读 · 0 评论 -
windows10(家庭版)cuda+cudnn下载安装问题
windows10(家庭版)cuda+cudnn下载安装问题1,基础要求系统:Windows10编译器:VS2017显卡:GeForce GTX 10602,软件下载VS官方链接为:(这里建议先装cuda,因为cuda会给出对应的VS版本下载链接)cuda的版本要对应显卡的型号显卡型号查询:在搜索框中输入NVIDIA(也可以直接搜NVIDIA控制面板)打开NVIDIA control Panel,打开系统信息点开组件,找到NVICUDA.DLL组件这里显示的是:NVIDIA C原创 2021-01-25 11:17:14 · 311 阅读 · 1 评论 -
pytorch-torch.nn-激活函数
激活函数在pytorchpytorchpytorch中,常用的激活函数为:sigmoid激活函数(S型激活函数)/logistic激活函数Tanh激活函数(双曲正切激活函数)Relu激活函数(线性修正单元激活函数)sigmoid激活函数(S型激活函数)/logistic激活函数\\Tanh激活函数(双曲正切激活函数)\\Relu激活函数(线性修正单元激活函数)sigmoid激活函数(S型激活函数)/logistic激活函数Tanh激活函数(双曲正切激活函数)Relu激活函数(线性修正单元激活函数原创 2021-01-02 16:22:51 · 1072 阅读 · 0 评论 -
pytorch-torch.nn-池化层
池化层池化操作的一个重要目的就是对卷积得到的特征进行进一步的处理(主要是降维)池化层可以起到对数据的进一步的浓缩效果,从而缓解计算式内存的压力。池化回选取一个大小区域,将该区域内的像素值使用一个代表元素表示。池化有很多种,有平均值池化,最大值池化,自适应池化。import torchimport torch.nn as nnimport matplotlib.pyplot as pltimport numpy as npfrom PIL import Image# 读取图像-转化为灰度原创 2020-12-30 19:48:24 · 419 阅读 · 1 评论 -
pytorch-torch.nn-卷积层
torch.nn模块torch.nntorch.nntorch.nn模块包含着torch已经准备好的层,方便使用者调用卷积层:卷积可以看作是:输入和卷积的一种内积运算使用卷积核将输入数据进行卷积运算得到的输出为特征映射每个卷积核可以获得一个特征映射卷积运算在图像识别,分割,重建中的三个好处:卷积的稀疏链接卷积的参数共享卷积的等变表示卷积的稀疏链接在卷积神经网络中,通过输入卷积核来进行卷积操作,使输入单元(图像或特征映射(这里的特征映射即是上一个输入单元的特征映射))和输出单元(特征映射原创 2020-12-25 19:39:18 · 441 阅读 · 1 评论 -
pytorch-pytorch中的自动微分
pytorch中的自动微分在torchtorchtorch中的torch.autogradetorch.autogradetorch.autograde模块,提供了实现任意标量值函数自动求导的类和函数针对一个张量值需要设置参数requiresgrad=Truerequires_grad = Truerequiresgrad=True,通过相关计算即可输出其在传播过程中的梯度(导数)信息。下面使用一个示例来解释pytorchpytorchpytorch中自动微分的计算,在pytorchpytorchpy原创 2020-12-25 13:11:21 · 177 阅读 · 0 评论 -
pytorch-张量-张量的计算-统计相关的计算
3统计相关的计算在pytorchpytorchpytorch中 包含了一些基础的统计计算的功能,可以很方便的获取张量中的均值,标准差,最大值,最小值及位置等。import torch# 一维张量的最大值和最小值a = torch.tensor([12., 34, 25, 11, 67, 32, 29, 30, 99, 55, 23, 44])print("最大值:", a.max())print("最大值位置:", a.argmax())print("最小值", a.min())print原创 2020-12-25 11:42:00 · 1501 阅读 · 0 评论 -
pytorch-张量-张量的计算-基本运算
2基本运算张量的基本运算方式,一种为逐元素之间的运算,如加减乘除四则运算,幂运算,平方根,对数,数据剪裁等,另一种为矩阵之间的运算,如矩阵相乘,矩阵的转置,矩阵的迹等import torch# 矩阵逐元素相乘a = torch.arange(6.0).reshape(2,3)b = torch.linspace(10, 20, steps=6).reshape(2, 3)print("a", a)print("b", b)print(a * b)# 逐元素相除print(a / b)原创 2020-12-25 11:40:31 · 3330 阅读 · 0 评论 -
pytorch-张量-张量的计算-比较大小
张量计算张量的计算内容主要包括:张量之间的大小比较,张量的基本运算,如元素之间的运算和矩阵之间的运算等,张量与统计相关的运算,如排序,最大值,最小值,最大值的位置等内容。1,比较大小:对于torch.allclose()torch.allclose()torch.allclose()函数,比较的是两个元素是否接近,比较A和B是否接近的公式为:∣A−B∣<=atol+rtol×∣B∣|A-B|<=atol+rtol\times|B|∣A−B∣<=atol+rtol×∣B∣imp原创 2020-12-25 11:39:24 · 4589 阅读 · 0 评论 -
pytorch-张量-张量的操作
张量的操作:import torch# 改变张量的形状大小a = torch.arange(12.0).reshape(3, 4)print(a)# 使用torch.reshape()函数来修改张量的形状和大小print(torch.reshape(input=a, shape=(2, -1)))# 改变张量形状的resize_()函数print(a.resize_(2, 6))# resize_as_()方法,复制其他张量的形状与尺寸b = torch.arange(10.0,原创 2020-12-25 11:37:51 · 526 阅读 · 0 评论 -
pytorch-张量-张量的生成
张量的生成:import torchimport numpy as np# 使用tensor.tensor()函数构造张量a = torch.tensor([[1.0, 1.0], [2., 2.]])print(a)# 获取张量的维度print("张量的维度", a.shape)# 获取张量的形状大小print("张量的大小", a.size())# 获取张量中元素的个数print("张量的元素个数", a.numel())# 使用tensor.tensor()函数构造张原创 2020-12-25 11:35:03 · 446 阅读 · 0 评论 -
pytorch-张量-张量的数据类型
深度学习和pytorch张量:在pytorchpytorchpytorch中张量可以是一个标量,一个向量,一个矩阵,甚至是更高维度的数组,所以pytorchpytorchpytorch中的tensortensortensor和numpynumpynumpy中的数组(ndarrayndarrayndarray)非常相似。在使用中也经常将pytorchpytorchpytorch中的张量和numpynumpynumpy库中的数组相互转化,在深度网络中,基于pytorchpytorchpytorch的相关计原创 2020-12-25 11:33:19 · 384 阅读 · 0 评论