-
梯度消失
-
协变量偏移:真人版电影vs动漫
-
标签偏移:真假美猴王
-
概念偏移:病毒的进化,人类的进化。认知迟延,知识需要更新。
e.g.1一个在冬季部署的物品推荐系统在夏季的物品推荐列表中出现了圣诞礼物,我们可以推断该系统没有考虑到:
A协变量偏移 B标签偏移 C概念偏移 D没有问题
答案解析:A 可以理解为在夏季的物品推荐系统与冬季相比,时间或者说季节发生了变化,导致了夏季推荐圣诞礼物的不合理的现象,这个现象是由于协变量时间发生了变化造成的。
在深层网络中尽量避免选择sigmoid和tanh激活函数,原因是这两个激活函数会把元素转换到
[0, 1]
和[-1, 1]
之间,会加剧梯度消失的现象。pandas提供对one-hot编码的函数是:pd.get_dummies()
问题:
1.关于卷积层,以下哪种说法是错误的:
A 1×1卷积可以看作是通道维上的全连接
B 某个二维卷积层用于处理形状为3×100×100的输入,则该卷积层无法处理形状为3×256×256的输入
C 卷积层通过填充、步幅、输入通道数、输出通道数等调节输出的形状
D 两个连续的3×3卷积核的感受野与一个5×5卷积核的感受野相同
选项2:对于高宽维度,只要输入的高宽(填充后的)大于或等于卷积核的高宽即可进行计算
D 如何理解?
比如一个7X7的图像,经过一次5*5的卷积核后形成一个3*3的特征图;
同样一个7X7的图像,经过两次次3*3的卷积核后才形成形成一个3*3的特征图。
https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/video/whY-8BhPmsle8wyEEyTST
2.池化层直接对窗口内的元素求最大值或平均值,并没有模型参数参与计算。
kernel大小不是参数? 只是超参数。。。。。。。
PS:
- 填充(padding)是指在输入高和宽的两侧填充元素(通常是0元素)。所以,padding=2,上下两侧总共填充4行。
- 一张256×256的彩色(RGB)图像,数据表示时大小应为:3*256*256。
- 对于高宽维度,只要输入的高宽(填充后的)大于或等于卷积核的高宽即可进行计算
1.卷积神经网络就是含卷积层的网络。 LeNet交替使用卷积层和最大池化层后接全连接层来进行图像分类。