![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
白面机器学习打卡
文章平均质量分 51
技术总监刘先生
技术改变世界,技术改变生活,互联网技术从业者
展开
-
白面机器学习第7天
1.简述kmeans流程 2.kmeans对异常点敏感嘛,为什么 3.如何评论聚类效果 4.超参数k如何选择 5.kmeans算法优缺点原创 2020-11-23 20:24:38 · 97 阅读 · 0 评论 -
白面机器学习打卡第六天
1.简述一下随机森林算法的原理 2.随机森林的随机性体现在哪里? 3.随机森林算法的优缺点? 4.随机森林为什么不能用全样本去训练m棵决策树? 5.随机森林和GBDT的区别?原创 2020-11-17 20:05:27 · 129 阅读 · 0 评论 -
白面机器学习第五天
1.什么是集成学习算法? 2.集成学习主要有哪几种框架, 并简述它们的工作过程? Boosting算法有哪两类,它们之间的区别是什么? 什么是偏差和方差? 为什么说Bagging可以减少弱分类器的方差,而Boosting 可以减少弱分类器的偏差? ...原创 2020-11-16 16:42:29 · 171 阅读 · 0 评论 -
白面机器学习第四天
1.写出全概率公式&贝叶斯公式 . 2.朴素贝叶斯为什么“朴素naive”? 3.朴素贝叶斯的工作流程是怎样的? 4.朴素贝叶斯有没有超参数可以调? 5.朴素贝叶斯对异常值敏不敏感原创 2020-11-12 17:22:28 · 96 阅读 · 0 评论 -
白面机器学习第三天
1.逻辑回归相比线性回归,有何异同 不同之处: 1.逻辑回归解决的是分类问题,线性回归解决的是回归问题,这是两者最本质的区别 2.逻辑回归中因变量是离散的,而线性回归中因变量是连续的这是两者最大的区别 3在自变量和超参数确定的情况下逻辑回归可看作广义的线性模型在因变量下服从二元分布的一个特殊情况 4.使用最小二乘法求解线性回归时我们认为因变量服从正态分布 相同之处: 1.二者在求解超参数的过程中都使用梯度下降的方法 2.二者都使用了极大似然估计对训练样本进行建模 二.回归问题...原创 2020-11-11 15:48:16 · 632 阅读 · 0 评论