![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
torch的细枝末节
Andy_Real
这个作者很懒,什么都没留下…
展开
-
神经网路的训练、调参等trick
在达到相同感受野的情况下,卷积核越小,所需要的参数和计算量越小。具体来说。卷积核大小必须大于1才有提升感受野的作用,1排除了。而大小为偶数的卷积核即使对称地加padding也不能保证输入feature map尺寸和输出feature map尺寸不变(画个图算一下就可以发现),2排除了。所以一般都用3作为卷积核大小。每一层卷积有多少channel数,以及一共有多少层卷积,这些暂时没有理论支撑,一般都是靠感觉去设置几组候选值,然后通过实验挑选出其中的最佳值。这也是现在深度卷积神经网络虽然效果拔群,但是一转载 2020-09-04 21:16:35 · 160 阅读 · 0 评论 -
torch.tensor和torch.Tensor
在torch的tensor使用过程中,我们经常回看到torch.tensor()和类似于torch.Tensor()或者torch.FloatTesnor()、tensor.DoubleTensor()等等,究竟两种用法该怎么区分呢?首先,要说的是,上面列出的几种初始化方法,我们统一的归为两类:大写和小写小写:torch.tensor()大写:torch.Tensor()或者torch.FloatTesnor()、tensor.DoubleTensor()诸如此类用Tensor开头的小写:一原创 2020-08-10 17:05:44 · 562 阅读 · 0 评论 -
torch.manual_seed(random_seed)随机数种子
https://cloud.tencent.com/developer/article/1149041转载 2020-08-02 21:05:15 · 900 阅读 · 0 评论 -
什么时候用torch.nn.functional.xxx?什么时候用nn.xx
作者:有糖吃可好链接:https://www.zhihu.com/question/66782101/answer/579393790来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。两者的相同之处:nn.Xxx和nn.functional.xxx的实际功能是相同的,即nn.Conv2d和nn.functional.conv2d 都是进行卷积,nn.Dropout 和nn.functional.dropout都是进行dropout,。。。。。; 运行效率也是.转载 2020-07-30 16:03:54 · 401 阅读 · 0 评论 -
pytorch之torch.clamp()
参考链接https://blog.csdn.net/u013230189/article/details/82627375转载 2020-07-24 20:19:53 · 153 阅读 · 0 评论