1. 一般输入参数为batch_size×num_features×height×width
当高度和宽度不一样时,分别计算即可。
2.ReLU函数的表达式为:f(x) = max(0, x)。
3.Pytorch中最大池化层Maxpool的作用说明及实例使用(附代码)-CSDN博客
4.假设x
的形状是(A, B, C, D)
,其中A
、B
、C
、D
是各个维度的尺寸。执行x = torch.flatten(x, 1)
后,x
的新形状将会是(A, B*C*D)
。这是因为从第二个维度(索引为1的维度,即B
维度)开始,所有后续的维度都被合并成了一个维度。
5.pytorch使用(三)torch.zeros用法 - DuJunlong - 博客园 (cnblogs.com)
6.行堆叠
7.RNNCELL构造简单的RNN循环网络
8.用torch.RNN构造,注意numlayers
9. torch。Softmax ,激活后表示 属于这些类的概率,dim 表示 是哪一个维度。
10. Pytorch详解NLLLoss和CrossEntropyLoss-CSDN博客
11. 列表取片操作易错点(list indices must be integers or slices, not tuple原因及解决方法)-CSDN博客 12. RNN
x
: 输入数据,其形状通常为(batch_size, seq_len, input_dim),batch在前时
pytorch中LSTM参数详解(一张图帮你更好的理解每一个参数)_torch lstm参数图解-CSDN博客Pytorch 的 LSTM 模型的简单示例_lstm代码-CSDN博客
13.在Python代码中设置环境变量
-
import os
-
# 仅设置一块可见
-
os.environ['CUDA_VISIBLE_DEVICES'] = '0'
-
# 设置多块可见
-
os.environ['CUDA_VISIBLE_DEVICES'] = '0,2,3'
一文讲透Python机器学习特征选择之互信息法_互信息特征选择-CSDN博客
14. 无脑入门pytorch系列(五)—— nn.Dropout - 知乎 (zhihu.com)
- 有一部分的值变为了0,这些值大约占据总数的0.2。
- 其它非0参数都除以0.8,使得值变大了。比如:
0.3514 / 0.8 = 0.4392
,-1.0317 / 0.8 = -1.2896
。