考试样题 http://bit.baidu.com/news/detail/id/82.html
一、单选题
1. 下列关于微分求导的表达式错误的是?
A.tanh函数y = tanh(x)的微分为 y' = 1- y^2
B.sigmoid函数y = 1/(1+exp(-x))的微分为 y' = -y(1-y)
C.RELU函数y = max(x,0)的微分为 y = 0 if x<0;1 if x>=0
D.Leaky RELU函数 y = max(ax,x)的微分为 y' = a if x<0;1 if x>=0
参考答案:B
sigmoid导数是正数, -y(1-y), 是负数
2. 输入为32x32x3,卷积核大小为5x5,总共有10个卷积核,做卷积的时候stride=1,pad=2,那么这一层总共含有多少参数?
A.576 B.760 C.640 D.36864
参考答案:B
3x5x5x10+10 每个卷积核对于每个输入通道的参数是不一样的;最后要加上偏置,每个卷积核一个
3. 请问下列关于支持向量机SVM算法的描述错误的是?
A.SVM可以解决非线性问题
B.SVM对缺失数据不敏感,适合处理空值较多的情况
C.SVM可以解决小样本情况下的机器学习问题
D.SVM可以提高模型的泛化性能
参考答案:B
svm主要是对支撑向量对应样本分类,与其它样本没有关系,泛化性能好
svm对于缺失数据也不行
4. 在词向量训练中,针对embedding层说法错误的是?
A.PaddlePaddle中,embedding层支持分布式存储
B.embedding层其实是一个lookup操作,查找对应ID得到embedding向量
C.embedding在训练过程中不会被更新
D.PaddlePaddle中embedding层支持不同精确读的数据类型,如float16,float32
参考答案:C
embedding,是学习到的特征,学习过程中要更新的。
二、多选题
1. 当我们在回归分类模型中遇到过拟合时,以下哪些方法可以用于优化?(正确选项数量为2个)
A.减少正则化参数
B.尝试非线性模型
C.增大用于训练的数据量
D.Bagging
参考答案:CD
A,减少参数会更过拟合的。
B,没有明白,感觉回归分类模型里面就有非线性模型。
c肯定可以,
d 什么是bagging:对于训练集,又放回的抽样,形成k个数据集,分别训练出7个模型,最终结果由这7个模型产生。