![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 76
@左左@右右
这个作者很懒,什么都没留下…
展开
-
pytorch中函数参数dim的理解
对于刚入门的新手来说,Torch API中的维度真的很迷惑人.例如 torch.sum(x, dim=0) 是按着行相加呢,还是列相加?还有TopK,softmax等函数。原创 2022-08-28 22:55:35 · 1737 阅读 · 0 评论 -
pytorch view()和reshape() 详解
两者都是用来重塑tensor的shape的。view只适合对满足连续性条件(contiguous)的tensor进行操作,并且该操作不会开辟新的内存空间,只是产生了对原存储空间的一个新别称和引用,返回值是视图。reshape对适合对满足连续性条件(contiguous)的tensor进行操作返回值是视图,否则返回副本(此时等价于先调用contiguous()方法在使用view())考虑内存的开销而且要确保重塑后的tensor与之前的tensor共享存储空间,那就使用view。...原创 2022-08-27 21:13:33 · 1118 阅读 · 0 评论 -
PyTorch-softmax,argmax,soft-argmax
softmaxSoftmax函数是一个非线性转换函数,通常用在网络输出的最后一层,输出的是概率分布(比如在多分类问题中,Softmax输出的是每个类别对应的概率),计算方式如下:得到的是第i个位置对应的概率,每个位置的概率之和为1(可以看出Softmax仅进行计算,没有需要学习的参数)。Pytorch softmax APItorch.nn.functional.softmax(input, dim=None, _stacklevel=3, dtype=None)input是我们输入的数据,原创 2021-10-13 18:24:42 · 3583 阅读 · 0 评论 -
入门Dropout层
Dropout层在神经网络层当中是用来干嘛的呢?它是一种可以用于减少神经网络过拟合的结构,那么它具体是怎么实现的呢?假设下图是我们用来训练的原始神经网络:一共有四个输入x_i,一个输出y。Dropout则是在每一个batch的训练当中随机减掉一些神经元,而作为编程者,我们可以设定每一层dropout(将神经元去除的的多少)的概率,在设定之后,就可以得到第一个batch进行训练的结果:从上图我们可以看到一些神经元之间断开了连接,因此它们被dropout了!dropout顾名..转载 2021-09-15 16:04:47 · 927 阅读 · 1 评论 -
透彻理解BN(Batch Normalization)层
什么是BNBatch Normalization是2015年论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》中提出的数据归一化方法,往往用在深度神经网络中激活层之前。其作用可以加快模型训练时的收敛速度,使得模型训练过程更加稳定,避免梯度爆炸或者梯度消失。并且起到一定的正则化作用,几乎代替了Dropout批量归一化:通过减少内部协变量偏移来加速深度网络训练由于每原创 2021-09-07 01:13:54 · 6806 阅读 · 0 评论 -
torch.nn.MaxPool2d参数详解
在神经网络中 池化层是比较重要的,是提取重要信息的操作,可以去掉不重要的信息,减少计算开销。下面我们来介绍MaxPool2d的使用方法。API官网文档MaxPool2d 参数介绍kernel_size :表示做最大池化的窗口大小,可以是单个值,也可以是tuple元组stride :步长,可以是单个值,也可以是tuple元组padding :填充,可以是单个值,也可以是tuple元组dilation :控制窗口中元素步幅return_indices :布尔类型,返回最大值位置索引cei原创 2021-09-05 10:57:17 · 15263 阅读 · 3 评论 -
Pytorch公众号文章连接
初始化一个Tensor直接从data创建,数据类型会被自动推导 data =[[1,2],[3,4]]x_data=torch.tensor(data)从numpy array 中创建tensor np_array = np.array(data)x_np=torch.tensor(np_array)从其他tensor创建,新的tensor会保留数据类型和形状,除非明确覆盖 x_one = torch.ones_like(x_data)#print(..原创 2021-08-29 16:15:34 · 112 阅读 · 0 评论