![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch实现
Kadima°
行至水穷处,坐看云起时
展开
-
【Pytorch实现】——点云随机数据增强:绕Z轴旋转时的一点困惑
【Pytorch实现】——点云随机数据增强:绕Z轴旋转时的一点困惑原创 2021-10-14 11:18:50 · 709 阅读 · 0 评论 -
【Pytorch实现】——深入理解im2col(详细图解)
【Pytorch】——深入理解im2col(详细图解)转载链接1.im2col是将一个[C,H,W]矩阵变成一个[H,W]矩阵的一个方法,其原理是利用了行列式进行等价转换2.为什么要做im2col? 减少调用gemm的次数3.本次的代码只是为了方便理解im2col,不是用来做加速,所以代码写的很简单且没有做任何优化一、卷积的可视化例子是一个[1, 6, 6]的输入,卷积核是[1, 3, 3],stride等于1,padding等于0。那么卷积的过程可视化如下图,一共需要做16次卷积计算,每次卷积转载 2021-10-14 10:35:29 · 6276 阅读 · 6 评论 -
【Pytorch实现】——BN代码实现
BN代码实现import torchfrom torch import nndef batch_norm(X,gamma,beta,moving_mean,moving_var,eps,momentum): # 推理 if not torch.is_grad_enabled(): X_hat = (X - moving_mean) / torch.sqrt(moving_var + eps) # 训练 else: assert len(X.shape) in (2,4原创 2021-08-20 11:08:59 · 1749 阅读 · 0 评论 -
【Pytorch实现】——summary
【Pytorch实现】——summaryKeras中有一个非常简介的API用来可视化model,这对debug我们的网络模型非常有用,下面介绍的就是Pytorch中的类似实现——summaryGithub链接pytorch-summary安装pip install torchsumary使用下面代码示例import torchimport torch.nn as nnimport torch.nn.functional as Ffrom torchsum原创 2021-10-08 22:41:00 · 1364 阅读 · 1 评论 -
【Pytorch实现】——LeNet网络
【Pytorch实现】——LeNet网络import torchfrom torch import nnfrom d2l import torch as d2l# 继承nn.Module类,实现__init__和forwardclass Reshape(nn.Module): def forward(self,x): # 将图片形状变成BxCxHxW return x.reshape(-1,1,28,28)# nn.Sequential可以包装任何继承nn.Module实原创 2021-10-08 22:23:56 · 111 阅读 · 0 评论 -
【Pytorch实现】——最大池化和平均池化
【Pytorch实现】——最大池化和平均池化import torchfrom torch import nndef pool2d(X, pool_size, mode='max'): # 获取池化层核的大小 p_h, p_w = pool_size # 计算经过最大池化后的特征图的大小 Y = torch.zeros((X.shape[0] - p_h + 1,X.shape[1] - p_w + 1)) # 行列遍历进行最大池化 for i in range(Y.shape原创 2021-10-08 15:51:38 · 2490 阅读 · 0 评论 -
【Pytorch实现】——nn.Sequential()
【Pytorch实现】——nn.Sequential()import torchimport torch.nn as nnclass MySequential(nn.Module): def __init__(self,*args): super().__init__() # 将args中的层存入有顺序的dict中 for block in args: self._modules[block] = block def forward(self,X):原创 2021-10-07 17:23:21 · 319 阅读 · 0 评论