错题总结

1.1.关于导致梯度消失和梯度爆炸的描述错误的是:
激活函数使用sigmoid或者tanh可以缓解梯度消失
在激活函数的选择的地方讲过,在深层网络中尽量避免选择sigmoid和tanh激活函数,原因是这两个激活函数会把元素转换到[0, 1]和[-1, 1]之间,会加剧梯度消失的现象。
2一个在冬季部署的物品推荐系统在夏季的物品推荐列表中出现了圣诞礼物,我们可以推断该系统没有考虑到:
标签偏移
可以理解为在夏季的物品推荐系统与冬季相比,时间或者说季节发生了变化,导致了夏季推荐圣诞礼物的不合理的现象,这个现象是由于协变量时间发生了变化造成的。
3.假如你用全连接层处理一张256×256256 \times 256256×256的彩色(RGB)图像,卷积核的高宽是3×33 \times 33×3,输出包含10个通道,在使用偏置的情况下,这个卷积层共有多少个参数:
答案解释输入通道数是3,输出通道数是10,所以参数数量是10×3×3×3+10=28010 \times 3 \times 3 \times 3 + 10 = 28010×3×3×3+10=280。
4.conv2d = nn.Conv2d(in_channels=3, out_channels=4, kernel_size=3, padding=2),输入一张形状为3×100×1003 \times 100 \times 1003×100×100的图像,输出的形状为:
输出通道数是4,上下两侧总共填充4行,卷积核高度是3,所以输出的高度是104−3+1=102104 - 3 + 1=102104−3+1=102,宽度同理可得。

5.关于循环神经网络描述错误的是
选项1:批量训练的过程中,参数是以批为单位更新的,每个批次内模型的参数都是一样的。
选项2:循环神经网络通过不断循环使用同样一组参数来应对不同长度的序列,故网络的参数数量与输入序列长度无关。
选项3:隐状态HtH_tHt​的值依赖于H1,…,Ht−1H_1, …, H_{t-1}H1​,…,Ht−1​,故不能并行计算。
选项4:可以这么认为,详见视频中2分40秒到3分10秒。
6、关于梯度裁剪描述错误的是:
梯度裁剪也是应对梯度消失的一种方法

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值