pytorch学习笔记---RNN(基础)

一个非常好的笔记:或智或愚或痴或迷 似悲似喜似惊似疑 | BirandaのBlog http://biranda.top


CNN的卷积层只和输入输出通道、还有卷积核的大小有关。

全连接层和图像的大小有关

CNN中卷积层和全连接层相比,全连接层的权重数目是占大头的,比卷积层的远远要多。卷积层有一个参数共享机制。

 

RNN来解决带有序列模式的数据,也会用到权重共享,来减少需要训练的权重的数量。

有序列关系:天气、股市、自然语言

RNN Cell 是典型的线性层

看上去是两个线性层,实际上可以写成一个线性层

pytorch里 RNN使用有两种  1. 定义RNN Cell   2. 直接用RNN

1. 定义RNN Cell 

for example:

注意RNN的使用主要是要搞清维度是怎么变化的,这里增加了一个SeqLen(序列长度)这个维度.

2. 直接用RNN

num_layer: 使用多少层RNN   上面可以接很多层RNN

out, hidden = cell(inputs,hidden)

(h_1~h_N), h_N = cell((x_1~x_N),h_0)

 

同一个色的是同一个线性层。一共就三个线性层。

里面有个batch_first选项,设成Ture,下面input也要换下位置。


讲个例子

假定现在有一个序列到序列(seq→seq)的任务,比如将“hello”转换为“ohlol”

搞搞清楚维度:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值