一个非常好的笔记:或智或愚或痴或迷 似悲似喜似惊似疑 | BirandaのBlog http://biranda.top
CNN的卷积层只和输入输出通道、还有卷积核的大小有关。
全连接层和图像的大小有关
CNN中卷积层和全连接层相比,全连接层的权重数目是占大头的,比卷积层的远远要多。卷积层有一个参数共享机制。
RNN来解决带有序列模式的数据,也会用到权重共享,来减少需要训练的权重的数量。
有序列关系:天气、股市、自然语言
RNN Cell 是典型的线性层
看上去是两个线性层,实际上可以写成一个线性层
pytorch里 RNN使用有两种 1. 定义RNN Cell 2. 直接用RNN
1. 定义RNN Cell
for example:
注意RNN的使用主要是要搞清维度是怎么变化的,这里增加了一个SeqLen(序列长度)这个维度.
2. 直接用RNN
num_layer: 使用多少层RNN 上面可以接很多层RNN
out, hidden = cell(inputs,hidden)
(h_1~h_N), h_N = cell((x_1~x_N),h_0)
同一个色的是同一个线性层。一共就三个线性层。
里面有个batch_first选项,设成Ture,下面input也要换下位置。
讲个例子
假定现在有一个序列到序列(seq→seq)的任务,比如将“hello”转换为“ohlol”
搞搞清楚维度: