dropout实现过程

1、dropout可以用来防止过拟合
pytorch中实现如下:

m = nn.Dropout(p=0.2)
input = torch.randn(2, 5)
print()
output = m(input)
print(input)
print(output)

输出如下
在这里插入图片描述
实际上,dropout不只mask掉某个位置的数,而且还将保留的数进行缩放,缩放比例为
p 1 − p {\frac{p}{1-p}} 1pp
这里计算出来缩放比例为1.25。-0.1673*1.25=0.209125
[seq, 384]:dropout的作用在于对某个字(seq维度上)一共有384个特征,随机剔除几个特征,并放大剩余特征。

2、Dropout(x)的后续作用
Dropout: [batch_size, seq, hidden_dim]
W: [hidden_dim, 10]
在这里插入图片描述
上图中Dropout(x)维度为[1, 2, 4],对图中Dropout(x)的第一行来说,W的第二行数据失效,第二行类似。因为seq维度不一定是独立的。
因为每个batch中的数据两两之间可以认为是独立的,对Dropout(x)每一行来说,都相当于独立训练一个分类器。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值