![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
torch.nn
文章平均质量分 62
harry_tea
这个作者很懒,什么都没留下…
展开
-
nn.init
nn.init初始化函数参数: pytorch文档nn.init.uniform_(tensor, a=0, b=1)下面举一个初始化时的例子可以看到初始化的结果在0-1之间,当初始化的数据足够多时服从均匀分布,之后的初始化方法与之相同,就不在举例了持续更新中…原创 2023-02-27 09:59:10 · 296 阅读 · 0 评论 -
nn.BatchNorm1d
本篇博客主要讲解BatchNorm函数的执行过程,需要读者有一定的批归一化的基础,本文例子通俗易懂,如果没有基础也可以阅读在PyTorch中BatchNorm有三个函数,这里主要讲解前两个,后面的就很容易理解,首先要明白批归一化是做什么的:BatchNorm在深度网络中用来加速神经网络的训练,能够加速收敛并且可以使用较大的学习率,同时归一化还有一定的正则作用一、torch.nn.BatchNorm1dtorch.nn.BatchNorm1d(num_features, eps=1e-05, momen原创 2021-10-16 22:04:22 · 12949 阅读 · 3 评论 -
nn.AdaptiveAvgPool2d
torch.nn.AdaptiveAvgPool2dtorch.nn.AdaptiveAvgPool2d(output_size)output_size:可以为tuple类型(H, W),也可以为一个数字H表示(H, H),H,W可以为int或者None类型,如果是None默认与输入相同大小二维平均自适应池化,只需要给出输出的参数就可以自动寻找相应的kernal size以及strideApplies a 2D adaptive average pooling over an input si原创 2021-11-06 11:28:28 · 11817 阅读 · 1 评论