-
下列说法正确的是(A、B、E) A、机器学习中使用L2正则化可以得到平滑的权值 B、在AdaBoost算法中,所有被错分的样本的权重更新比例相同。 C、Boosting和Bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重。 D、梯度下降有时会陷于局部极小值,但EM算法不会。 E、在核回归中,最影响回归的过拟合性和欠拟合之间平衡的参数为核函数的宽度 解析: A、L1正则可以使少数权值较大,多数权值为0,得到稀疏的权值;L2正则会使权值都趋近于0但非零,得到平滑的权值; B、在AdaBoost算法中,被错分的样本的权重更新比例的公式相同; C、Boosting和Bagging都是组合多个分类器投票的方法,但Boosting是根据单个分类器的正确率决定其权重,Bagging是可简单地设置所、有分类器权重相同; D、EM算法不能保证找到全局最优值; E、SVR中核函数宽度小欠拟合,宽度大容易过拟合
- 下列哪些是判别式模型(A、B、C)
A、最大熵 B、决策树 C、条件随机场 D、朴素贝叶斯 解析: 生成式模型:LDA KNN 混合高斯 贝叶斯 马尔科夫 深度信念 判别式模型:SVM NN LR CRF CART
- 下列哪些优化算法主要用来解无约束优化问题(ABCE)
A、随机梯度下架 B、LBFGS C、共轭梯度法 D、SMO E、拟牛顿法 解析: 无约束最优化算法:最速梯度法,牛顿法,共轭梯度法,拟牛顿法(包括DFP,BFGS,L-BFGS)。 SMO算法可以高效的求解SVM的对偶问题,这个问题有约束条件,,其中n是样本的数量,是拉格朗日乘子