pytorch基础
文章平均质量分 51
豪言成笑谈
这个作者很懒,什么都没留下…
展开
-
pytorch中repeat和repeat_interleave
repeat的参数是每一个维度上重复的次数,repeat_interleave的参数是重复的次数和维度。repeat相当于将该张量复制,然后在某一维度concat起来,而repeat_interleave是将张量中的元素沿某一维度复制n次,即复制后的张量沿该维度相邻的n个元素是相同的。a = np.arange(0, 10)a = a.reshape(2, -1)a = torch.from_numpy(a)b = a.repeat(2, 1)print(b)c = a.repeat_inte原创 2021-12-09 11:13:55 · 3180 阅读 · 0 评论 -
pytorch自定义DataSet
例1import torch.utils.data as Dataclass TrainData(Data.Dataset): def __init__(self, data): self.data = data self.len = 10 def __len__(self): return self.len def __getitem__(self, index): # index的取值为[0, len],原创 2021-11-25 15:06:40 · 708 阅读 · 0 评论 -
pytorch中的grid_sample()
torch.nn.functional.grid_sample首先我们看pytorch文档中给出的描述:torch.nn.functional.grid_sample(input, grid, mode=‘bilinear’, padding_mode=‘zeros’, align_corners=None)Given an input and a flow-field grid, computes the output using input values and pixel location原创 2021-10-29 13:28:46 · 5018 阅读 · 1 评论 -
pytorch损失函数
L1 Loss(Mean Absolute Error,MAE)pytorch代码:torch.nn.L1Loss()L2 Loss(Mean Squared Error,MSE)pytorch代码:torch.nn.MSELoss()L1Loss和MSELoss的参数:旧版的函数有reduce、size_average两个参数,新版的只有一个reduction参数了,功能是一样的。reduction的意思是维度要不要缩减,以及怎么缩减,有三个选项:none:不要压缩,如果参数值为n原创 2021-10-27 20:54:18 · 1238 阅读 · 0 评论