研1日记6

1. 一般输入参数为batch_size×num_features×height×width

当高度和宽度不一样时,分别计算即可。

2.ReLU函数的表达式为:f(x) = max(0, x)。

3.Pytorch中最大池化层Maxpool的作用说明及实例使用(附代码)-CSDN博客

4.假设x的形状是(A, B, C, D),其中ABCD是各个维度的尺寸。执行x = torch.flatten(x, 1)后,x的新形状将会是(A, B*C*D)。这是因为从第二个维度(索引为1的维度,即B维度)开始,所有后续的维度都被合并成了一个维度。

5.pytorch使用(三)torch.zeros用法 - DuJunlong - 博客园 (cnblogs.com)

6.行堆叠

 

7.RNNCELL构造简单的RNN循环网络

8.用torch.RNN构造,注意numlayers

9. torch。Softmax ,激活后表示 属于这些类的概率,dim 表示 是哪一个维度。

10. Pytorch详解NLLLoss和CrossEntropyLoss-CSDN博客  

11. 列表取片操作易错点(list indices must be integers or slices, not tuple原因及解决方法)-CSDN博客 12. RNN

LSTM2.前向传播的过程_哔哩哔哩_bilibili

x: 输入数据,其形状通常为(batch_size, seq_len, input_dim),batch在前时

pytorch中LSTM参数详解(一张图帮你更好的理解每一个参数)_torch lstm参数图解-CSDN博客Pytorch 的 LSTM 模型的简单示例_lstm代码-CSDN博客

13.在Python代码中设置环境变量

  1. import os

  2. # 仅设置一块可见

  3. os.environ['CUDA_VISIBLE_DEVICES'] = '0'

  4. # 设置多块可见

  5. os.environ['CUDA_VISIBLE_DEVICES'] = '0,2,3'

 一文讲透Python机器学习特征选择之互信息法_互信息特征选择-CSDN博客

 14. 无脑入门pytorch系列(五)—— nn.Dropout - 知乎 (zhihu.com)

  1. 有一部分的值变为了0,这些值大约占据总数的0.2。
  2. 其它非0参数除以0.8,使得值变大了。比如:0.3514 / 0.8 = 0.4392-1.0317 / 0.8 = -1.2896

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值