人工智能、深度学习、机器学习常见面试题141~160

这篇博客汇总了141至160道关于人工智能、深度学习和机器学习的面试问题,涵盖随机森林、梯度爆炸、EM算法、特征归一化等主题,并提供了问题解答,包括解决过拟合、梯度爆炸等问题的策略,以及RF与GBDT的区别等。
摘要由CSDN通过智能技术生成

目录

141.什么是OOB?随机森林中OOB是如何计算的,它有什么优缺点?

142.采用 EM 算法求解的模型有哪些,为什么不用牛顿法或梯度下降法?

143.解决Bias和Variance问题的方法是什么?

144.假定你在神经网络中的隐藏层中使用激活函数 X。在特定神经元给定任意输入,你会得到输出「-0.0001」。X 可能是以下哪一个激活函数?

145.如何修复梯度爆炸问题?

146.梯度爆炸会引发什么问题?

147.什么是梯度爆炸?

148.类域界面方程法中,不能求线性不可分情况下分类问题近似或精确解的方法是?

149.目标变量在训练集上的 8 个实际值 [0,0,0,1,1,1,1,1],目标变量的熵是多少?

150.RF与GBDT之间的区别与联系? 

151.特征向量的归一化方法有哪些?

152.为了得到和 SVD 一样的投射(projection),你需要在 PCA 中怎样做?

153.对于维度极低的特征,选择线性还是非线性分类器?

154.以下哪个图是KNN算法的训练边界 ?

155.在有监督学习中, 我们如何使用聚类方法?

156.对于PCA(主成分分析)转化过的特征 , 朴素贝叶斯的”不依赖假设”总是成立, 因为所有主要成分是正交的, 这个说法是 :

157.在k-means或kNN,我们是用欧氏距离来计算最近的邻居之间的距离。为什么不用曼哈顿距离?

158.overfitting怎么解决?

159.为什么XGBoost要用泰勒展开,优势在哪里?

160.XGBoost如何寻找最优特征?是又放回还是无放回的呢?


141.什么是OOB?随机森林中OOB是如何计算的,它有什么优缺点?

        Bagging方法中Bootstrap每次约有1313的样本不会出现在Bootstrap所采集的样本集合中,当然也就没有参加决策树的建立,把这1313的数据称为袋外数据OOB(out of bag),它可以用于取代测试集误差估计方法。

袋外数据(OOB)误差的计算方法如下:
        对于已经生成的随机森林,用袋外数据测试其性能,假设袋外数据总数为O,用这O个袋外数据作为输入,带进之前已经生成的随机森林分类器,分类器会给出O个数据相应的分类,因为这O条数据的类型是已知的,则用正确的分类与随机森林分类器的结果进行比较,统计随机森林分类器分类错误的数目,设为X,则袋外数据误差大小=XOXO;这已经经过证明是无偏估计的,所以在随机森林算法中不需要再进行交叉验证或者单独的测试集来获取测试集误差的无偏估计。
 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

fpga和matlab

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值