目录
141.什么是OOB?随机森林中OOB是如何计算的,它有什么优缺点?
142.采用 EM 算法求解的模型有哪些,为什么不用牛顿法或梯度下降法?
144.假定你在神经网络中的隐藏层中使用激活函数 X。在特定神经元给定任意输入,你会得到输出「-0.0001」。X 可能是以下哪一个激活函数?
148.类域界面方程法中,不能求线性不可分情况下分类问题近似或精确解的方法是?
149.目标变量在训练集上的 8 个实际值 [0,0,0,1,1,1,1,1],目标变量的熵是多少?
152.为了得到和 SVD 一样的投射(projection),你需要在 PCA 中怎样做?
156.对于PCA(主成分分析)转化过的特征 , 朴素贝叶斯的”不依赖假设”总是成立, 因为所有主要成分是正交的, 这个说法是 :
157.在k-means或kNN,我们是用欧氏距离来计算最近的邻居之间的距离。为什么不用曼哈顿距离?
160.XGBoost如何寻找最优特征?是又放回还是无放回的呢?
141.什么是OOB?随机森林中OOB是如何计算的,它有什么优缺点?
Bagging方法中Bootstrap每次约有1313的样本不会出现在Bootstrap所采集的样本集合中,当然也就没有参加决策树的建立,把这1313的数据称为袋外数据OOB(out of bag),它可以用于取代测试集误差估计方法。
袋外数据(OOB)误差的计算方法如下:
对于已经生成的随机森林,用袋外数据测试其性能,假设袋外数据总数为O,用这O个袋外数据作为输入,带进之前已经生成的随机森林分类器,分类器会给出O个数据相应的分类,因为这O条数据的类型是已知的,则用正确的分类与随机森林分类器的结果进行比较,统计随机森林分类器分类错误的数目,设为X,则袋外数据误差大小=XOXO;这已经经过证明是无偏估计的,所以在随机森林算法中不需要再进行交叉验证或者单独的测试集来获取测试集误差的无偏估计。