机器学习
机器学习面试问题总结
qq_906638174
这个作者很懒,什么都没留下…
展开
-
PCA推导
是行向量,是列向量两个矩阵相乘的意义是将右边矩阵中的每一列向量变换到左边矩阵中以每一行行向量为基所表示的空间中去。也就是说矩阵可以表示一种线性变换现在的问题是如何选择基才是最优的,我们应如何选择基才能最大程度地保留原始信息。我们希望投影后的数据尽可能分散,因为重叠就会有样本消息方差方差表示数值地分散程度,方差地定义为:当我们将每个变量的均值化为0时,方差变为:协方差协方差表示两个变量之间相关性,为了让两个变量尽可能表示更多的原始信息,我们希望它们之间不存在线性相关性,因为相关转载 2020-09-11 10:28:48 · 88 阅读 · 0 评论 -
C++面试问题整理
静态库与动态库的区别:静态(函数)库 一般扩展名为(.a或.lib),这类的函数库通常扩展名为libxxx.a或xxx.lib 。 这类库在编译的时候会直接整合到目标程序中,所以利用静态函数库编译成的文件会比较大,这类函数库最大的优点就是编译成功的可执行文件可以独立运行,而不再需要向外部要求读取函数库的内容;但是从升级难易度来看明显没有优势,如果函数库更新,需要重新编译。 动态函数库 动态函数库的扩展名一般为(.so或.dll),这类函数库通常名为libxxx.so或xxx.dll 。转载 2020-09-06 16:44:53 · 165 阅读 · 0 评论 -
svm中拉格朗日对偶问题的推导
原始问题: 应用拉格朗日对偶性,求解最优解,对偶问题比较容易求解,可以引入核函数,推广到非线性问题。原创 2020-09-04 00:07:42 · 879 阅读 · 0 评论 -
梯度下降法、牛顿法和拟牛顿法——机器学习面试
待填原创 2020-08-19 23:08:44 · 308 阅读 · 0 评论 -
集成学习——机器学习面试
boosting和bagging的问题Bagging即套袋法,其算法过程如下: 从原始样本集中抽取训练集。每轮从原始样本集中使用有放回的抽样的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中)。共进行k轮抽取,得到k个训练集。(k个训练集之间是相互独立的) 每次使用一个训练集得到一个模型,k个训练集共得到k个模型。(注:这里并没有具体的分类算法或回归方法,我们可以根据具体问题采用不同的分类或回归方法,如决策树、感知器等) 对分类问题:将原创 2020-08-19 23:03:02 · 183 阅读 · 0 评论 -
树模型——机器学习面试
决策树处理连续值的方法CART采用的是二分法:对于连续属性a,我们可考察包括 n-1 个元素的候选划分集合(n个属性值可形成n-1 个候选点): 利用每个中的候选点对数据进行划分,得到两个子集,计算信息增益,取最大的信息增益对应作为该属性的信息增益。决策树如何防止过拟合提前结束限制树的深度:当达到设置好的最大深度的时候结束; 当继续展开后节点混乱程度的减小值比较小...转载 2020-08-19 19:28:29 · 181 阅读 · 1 评论 -
SVM — 机器学习面试
LR和SVM有什么区别,libsvm和liblinear有什么区别。LR与SVM的区别:相同点:LR和SVM都是分类算法 如果不考虑核函数,LR和SVM都是线性分类算法,也就是说他们的分类决策面都是线性的。 LR和SVM都是监督学习算法。 LR和SVM都是判别模型。不同点:本质上是其loss function不同。 支持向量机只考虑局部的边界线附近的点,而逻辑回归考虑全局(远离的点对边界线的确定也起作用)。 LR可以给出每个点属于每一类的概率,而SVM是非概率的,然后一个是基于统转载 2020-08-19 18:08:20 · 173 阅读 · 0 评论 -
LR逻辑斯蒂回归 — 机器学习面试
LR为什么用sigmoid函数, 为什么不用其他函数?逻辑回归的条件分布是伯努利分布,而线性回归的是高斯分布。 逻辑回归要预测的值是概率,因此要通过sigmoid函数约束到(0,1)区间,从而输出因为逻辑回归预测的是某个输出值(0或1)的概率。sigmoid函数有什么优点和缺点?优点输入范围是−∞→+∞−∞→+∞ ,输出范围为(0,1),正好满足概率分布为(0,1)的要求。我们用概率去描述分类器,自然比单纯的某个阈值要方便很多; 单调上升的函数,具有良好的连续性,不存在不连续点并且可导。转载 2020-08-19 16:32:58 · 133 阅读 · 0 评论