![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
LS_learner
业精于勤,荒于嬉;
行成于思,毁于随。
展开
-
pytorch搭建的网络中对各层定义的索引及更改
resnet50的model对各层的定义结构如下:ResNet( (conv1): Conv2d(3, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3), bias=False) (bn1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (relu): ReLU(inplace=True) (maxpool): Max原创 2021-06-22 22:53:07 · 761 阅读 · 2 评论 -
Pytorch训练集和测试集划分及训练集批次的划分与加载—torch.utils.data.TensorDataset、torch.utils.data.random_split、DataLoader
import torchfrom torch.utils.data import random_splitimport torch.utils.data as Datatrain_x = torch.randn(10,8)train_y = torch.randn(10,2)print(train_x)print(train_y)输出结果:tensor([[ 0.8185, 0.8745, 1.7025, 0.5817, -0.0425, 1.3716, -0.1665, -0.6原创 2020-10-21 15:42:29 · 6087 阅读 · 0 评论 -
pytorch中反卷积torch.nn.ConvTranspose2d()的使用
卷积:class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, groups=1, bias=True)蓝色为输入,蓝色上的阴影为卷积核(kernel),绿色为输出,蓝色边缘的白色框为padding反卷积:class torch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, o原创 2020-10-08 16:57:17 · 4920 阅读 · 13 评论 -
win10下安装visual studio2015以及cuda10.2和cudnn10.0
参考博客:https://blog.csdn.net/shuiyixin/article/details/99935799CUDA10.2下载:(天翼云盘)https://cloud.189.cn/t/nqQVZjMRR3Qncudnn10.0下载:(百度云盘)https://pan.baidu.com/s/1C1SWx5EFlfmW7aa_C1-E9A提取码:hxli注意:在安装之前CUDA之前,请先安装visual studio2015(我使用的是2015版本,尽量选取高版本的,如2017原创 2020-10-07 17:30:30 · 841 阅读 · 0 评论 -
pytorch中的Variable()解析
pytorch中的Variable()解析Variable就是变量的意思。实质上也就是可以变化的量,区别于int变量,它是一种可以变化的变量,这正好就符合了反向传播,参数更新的属性。具体来说,在pytorch中的Variable就是一个存放会变化值的地理位置,里面的值会不停发生变化,就像一个装鸡蛋的篮子,鸡蛋数会不断发生变化。那谁是里面的鸡蛋呢,自然就是pytorch中的tensor了。(也就是说,pytorch都是由tensor计算的,而tensor里面的参数都是Variable的形式)。如果用Var原创 2020-08-22 22:34:34 · 3764 阅读 · 0 评论 -
pytorch 随机种子的使用
pytorch随机种子在使用pytorch框架搭建模型的时候,模型中的参数都是进行初始化的,且每次初始化的结果不同,这就导致每次的训练模型不一样,要想在程序不变的情况下,使得每次的输出结果一致,那就要设定随机种子。先来了解一下随机种子:拿numpy举例:import numpy as npn=0while(n<5): np.random.seed(2) n+=1 print(np.random.random())print('\n')n=0np.random.原创 2020-06-07 12:16:00 · 2520 阅读 · 2 评论