Task03-05

  • 梯度消失

  • 协变量偏移:真人版电影vs动漫

  • 标签偏移:真假美猴王

  • 概念偏移:病毒的进化,人类的进化。认知迟延,知识需要更新。

e.g.1一个在冬季部署的物品推荐系统在夏季的物品推荐列表中出现了圣诞礼物,我们可以推断该系统没有考虑到:

A协变量偏移  B标签偏移 C概念偏移  D没有问题

答案解析:A 可以理解为在夏季的物品推荐系统与冬季相比,时间或者说季节发生了变化,导致了夏季推荐圣诞礼物的不合理的现象,这个现象是由于协变量时间发生了变化造成的。

  • 在深层网络中尽量避免选择sigmoid和tanh激活函数,原因是这两个激活函数会把元素转换到[0, 1][-1, 1]之间,会加剧梯度消失的现象。

  • pandas提供对one-hot编码的函数是:pd.get_dummies()


问题:

1.关于卷积层,以下哪种说法是错误的:

A 1×1卷积可以看作是通道维上的全连接

B 某个二维卷积层用于处理形状为3×100×100的输入,则该卷积层无法处理形状为3×256×256的输入

C 卷积层通过填充、步幅、输入通道数、输出通道数等调节输出的形状

D 两个连续的3×3卷积核的感受野与一个5×5卷积核的感受野相同

选项2:对于高宽维度,只要输入的高宽(填充后的)大于或等于卷积核的高宽即可进行计算

D 如何理解?

比如一个7X7的图像,经过一次5*5的卷积核后形成一个3*3的特征图;

同样一个7X7的图像,经过两次次3*3的卷积核后才形成形成一个3*3的特征图。

https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/video/whY-8BhPmsle8wyEEyTST

2.池化层直接对窗口内的元素求最大值或平均值,并没有模型参数参与计算。

kernel大小不是参数? 只是超参数。。。。。。。

PS:

  1. 填充(padding)是指在输入高和宽的两侧填充元素(通常是0元素)。所以,padding=2,上下两侧总共填充4行。
  2. 一张256×256的彩色(RGB)图像,数据表示时大小应为:3*256*256。
  3. 对于高宽维度,只要输入的高宽(填充后的)大于或等于卷积核的高宽即可进行计算

1.卷积神经网络就是含卷积层的网络。 LeNet交替使用卷积层和最大池化层后接全连接层来进行图像分类。

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值