pytorch
Yellow Yi
这个作者很懒,什么都没留下…
展开
-
torch.utils.data.dataloader中的collate_fn数据拼接方式那种最快
pytorch自定义数据集加载数据时数据拼接原创 2022-07-12 16:32:49 · 403 阅读 · 0 评论 -
pytorch中GRU的前向推理过程复现
GRU 学习torch官方资料# -*- coding: utf-8 -*-"""Created on Wed Aug 18 11:11:08 2021@author: yihuang"""import torch.nn as nnimport torchimport torch.nn.functional as Frnn = nn.GRU(10, 10, 1)input = torch.randn(1, 3, 10)output, hn = rnn(input)#复现推理原创 2021-08-18 16:37:59 · 724 阅读 · 1 评论 -
pytorch加载网络权重并冻结部分权重
需求构建一个新的网络,加载一个已经训练好的网络的公共部分。解决import torchfrom UnetModelsCuaseNotPadding_TwoStreamT2 import CRN_Netdef fix_bn(m): classname = m.__class__.__name__ if classname.find('BatchNorm') != -1: m.eval() model = CRN_Net()pretext_model = tor原创 2021-05-27 14:03:42 · 2651 阅读 · 0 评论 -
通过atan实现atan2函数
参考MATLAB函数——atan(x)和atan2(x)的区别在有的情况下只提供了atan的内置函数而没有atan2,先要判断象限再调整。import torchimport mathpi = math.pireal = torch.tensor([ 0.12, -1.1, -0.1, 1])imag = torch.tensor([ 0.22, 1.2, -1.2, -1.2])atan = torch.atan(imag/real)print(atan)atan[1] = ata原创 2021-04-29 13:49:59 · 1705 阅读 · 1 评论 -
PyTorch自定义带学习参数的激活函数(如sigmoid)
有的时候我们需要给损失函数设一个超参数但是又不想设固定阈值想和网络一起自动学习,例如给Sigmoid一个参数alpha进行调节函数如下:import torch.nn as nnimport torchclass LearnableSigmoid(nn.Module): def __init__(self, ): super(LearnableSigmoid, self).__init__() self.weight = torch.nn.Paramete原创 2021-04-15 17:58:49 · 4370 阅读 · 0 评论