![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
pytorch学习
咸鱼丶的自我修养
咸鱼一条~~~
展开
-
win10 miniconda pytorch1.5安装
首先自己先装好自己的cuda驱动,我自己装的是9.2的版本,装的方法可自行百度miniconda 安装直接 在清华镜像下载 安装包 https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/选择python3.8的最新版本,下载完后直接双击安装,选择自己的安装路径,一路next 就行 中间勾选添加环境变量的选项,这里要注意下如果安装的不是默认路径,在安装完后要设置安装主路径的权限,右键->属性->安全->SYSTEM->原创 2020-11-19 20:50:28 · 820 阅读 · 0 评论 -
Pascal VOC数据集 下载 百度云
链接:https://pan.baidu.com/s/1v259PakIgAxNTCEtULQeyw提取码:kaeb2007 2012 数据集原创 2020-04-16 10:01:57 · 6052 阅读 · 11 评论 -
pytorch 基本运算
有重载运算符 和 函数两种方法进行张量的运算import torchimport numpy as npa = torch.rand(2,3)b = torch.rand(3)# 这里b 使用了 broatcasting 自动进行了维度扩展print("运算符 + 与 add() 方法运算结果一致:{} ".format(torch.all(torch.eq(torch.add(a,b...原创 2020-01-07 15:49:13 · 694 阅读 · 0 评论 -
pytorch 合并与分割
cat 在原本的维度上扩展自己import torchimport numpy as npa = torch.rand(4,3,8)b = torch.rand(5,3,8)# dim 代表维度print("合并第一维度后的 shape: {}".format(torch.cat([a,b],dim=0).shape))合并第一维度后的 shape: torch.Size([9,...原创 2020-01-06 21:06:52 · 315 阅读 · 0 评论 -
pytorch 维度变换
view/reshape 功能完全一样。对一个张量进行维度变换,但是最终的总数量必须保持不变import torchimport numpy as npa = torch.rand(4,2,28,28) # 四维张量print(a.shape) # 原始的张量print(a.view(8,28*28).shape) # 维度转换成一维,总大小不变torch.Size([4, 2,...原创 2020-01-06 20:04:04 · 771 阅读 · 0 评论 -
pytorch 索引与切片
下面这个四维向量可简单理解成 4张3通道的图片分辨率为28x28a[0]指的是第一张图片的 三个通道全部像素的信息a[0][0]表示 第第一张图片第一个通道的全部像素信息a[0][0][0] 表示第一张图片的第一个通道下的第一行的全部像素信息a[0][0][0][0]表示第一张图下第一个通道下的图片的第一个像素import torchimport numpy as npa = tor...原创 2020-01-06 19:03:10 · 163 阅读 · 2 评论 -
pytorch 创建Tensor
从Numpy 到Tensor.from_numpy()方法 把numpy数据转换成张量import torchimport numpy as npa = np.array([2,3.3]) # 生成一个一维数组 并指定初值print("a 的值是:{}".format(a))a = torch.from_numpy(a) #把numpy转换成Tensorprint("a 转换后的...原创 2020-01-06 17:03:48 · 2212 阅读 · 0 评论 -
pytorch 基本数据类型
python与pytorch对比pytoch 中没有string类型 。import torcha = torch.randn(2,3) #用torch 产生一个 二维(2,3)服从正态分布的随机张量print(a.type()) #用自带的type方法 打印数据类型print(type(a)) # 用python自带type函数打印类型print(isinstance(a,torc...原创 2020-01-06 15:34:16 · 176 阅读 · 0 评论