CNN章节:
- 讲解CNN的时候padding的值等于 (kernel_size-1)/2
- 还有每一个层的参数的shape计算很重要
- 还有卷积核的作用(过滤信息)
- 池化层的作用降维并且抓住主要特征(为什么要用池化,池化mean和max方法的不同)
- padding的作用见https://blog.csdn.net/ningyanggege/article/details/87454694(莫烦讲的作用是否正确?)
RNN章节:
- input_size,hidden_size,num_layers这三个参数详解见https://blog.csdn.net/lwgkzl/article/details/88717678
- RNN做回归和RNN做分类的不同见:
for time_step in range(r_out.size(1)): # calculate output for each time step
outs.append(self.out(r_out[:, time_step, :]))
return torch.stack(outs, dim=1), h_state
out = self.out(r_out[:, -1, :])
- 分类是选取RNN的最后一个节点的输出,回归是concatRNN的所有节点的输出(其实分类也可以选择节点的所有输出)
- forward(self, x, h_state) 中RNN回归比RNN分类多一个h_state,RNN回归的batch之间有连续性,所以要传递h_state