![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 71
chensi000000
这个作者很懒,什么都没留下…
展开
-
【numpy、pytorch】 .reshape()的元素变动过程(pytorch的view也是此过程)
【numpy、pytorch】 .reshape()的元素变动过程(pytorch的view也是此过程)转载 2023-08-02 15:58:43 · 663 阅读 · 0 评论 -
torch.optim.lr_scheduler.OneCycleLR 学习与理解
torch.optim.lr_scheduler.OneCycleLR 详解原创 2023-06-16 15:58:58 · 4997 阅读 · 0 评论 -
pytorch中的所有随机数(random库)(normal、rand、randn、randint、randperm) 以及 随机数种子(seed、manual_seed、initial_seed)
torch的所有随机数官方已经整理在torch — PyTorch 1.10.0 documentation这个页面了,我又重新整理到了本blog中,用中文进行了部分解释,方便理解。一、常用的1、torch.normal()离散正态分布返回一个张量,包含了从指定均值mean和标准差std的离散正态分布中抽取的一组随机数。①第一种形式torch.normal(mean, std, generator=None, out=None) → Tensormean(Tensor) – ...原创 2021-11-01 20:29:12 · 15959 阅读 · 1 评论 -
pytorch torchvision的版本对应关系 pytorch历史版本
pytorch torchvision的版本对应关系:https://pytorch.org/get-started/previous-versions/pytorch历史版本下载地址:https://download.pytorch.org/whl/torch_stable.html原创 2021-03-24 14:34:44 · 3413 阅读 · 0 评论 -
torch.nn.parallel.DistributedDataParallel使用中卡在第一个epoch的原因之一
torch.nn.parallel.DistributedDataParallel的模型在进行eval()的时候必须加上with torch.no_grad(),否则就会导致一个卡卡死在运行eval()后的代码,而其他卡仍然在进行训练,其他卡不再等这个进行eval()的卡。在使用中有一个地方很容易错误,代码如下:if int(os.environ.get('RANK')) == 0: with torch.no_grad(): # print('dd0')原创 2021-01-09 15:44:23 · 2211 阅读 · 0 评论 -
torch.optim.lr_scheduler.MultiStepLR()用法研究 台阶/阶梯学习率
torch.optim.lr_scheduler.MultiStepLR(optimizer,milestones,gamma=0.1,last_epoch=-1,verbose=False)我自已用代码研究了一遍MultiStepLR()中的last_epoch参数,发现就是个垃圾。结论:①last_epoch就是个鸡肋的东西②会在milestone的时候乘以gamma的平方实验代码如下:1、首先是默认配置:import torchimport torchvisio....原创 2021-01-09 15:05:35 · 19565 阅读 · 19 评论 -
pytorch nn.CrossEntropyLoss()中的label不需要是one_hot
nn.CrossEntropyLoss()中的label不需要是one_hot。要求是一维的label。原创 2020-11-09 19:40:22 · 3233 阅读 · 10 评论 -
torch.utils.data random_split
用来划分训练集和验证集等n_val = int(len(dataset) * val_percent)n_train = len(dataset) - n_valtrain, val = random_split(dataset, [n_train, n_val])原创 2020-10-27 20:33:59 · 2941 阅读 · 0 评论