统计学
哈哈哈呀啦啦啦
这个作者很懒,什么都没留下…
展开
-
SMOTE之类不平衡过采样方法
本文是接着上篇MAHAKIL过采样方法写得。SMOTE方法算是现在比较流行的过采样方法了,其分为SMOTE-Regular, SMOTE-Borderline1, SMOTE-Borderli...原创 2020-03-14 18:17:52 · 809 阅读 · 0 评论 -
特征选择(feature selection)
特征选择这篇文章是关于机器学习中常用的特征选择的...转载 2020-03-13 23:46:42 · 713 阅读 · 0 评论 -
模型选择之AIC与BIC
此处模型选择我们只考虑模型参数数量,不涉及模型结构的选择。很多参数估计问题均采用似然函数作为目标函数,当训练数据足够多时,可以不断提高模型精度,但是以提高模型复杂度为代价的,同时带来一个机器学习中非常普遍的问题——过拟合。所以,模型选择问题在模型复杂度与模型对数据集描述能力(即...原创 2020-03-13 23:36:13 · 2692 阅读 · 0 评论 -
交叉验证(Cross Validation)
交叉验证(Cross Validation)常见的交叉验证方法如下:1、简单交叉验证将原始数据随机分为两组,一组做为训练集,一组做为验证集,利用训练集训练分类器,然后利用验证集验证模型,记录最...原创 2020-03-12 20:22:31 · 362 阅读 · 0 评论 -
采样-Gibbs采样
MCMC蒙特卡洛马尔科夫链采样,非常重要的采样算法,而Gibbs算法也是MCMC种的一种,主要用于高维分布的采样。介绍MCMC的书籍有很多,https://victorfang.wordpre...原创 2020-03-10 22:58:13 · 766 阅读 · 0 评论 -
KKT 直观理解
KKT最优化条件是Karush[1939],以及K...原创 2020-03-10 20:06:31 · 954 阅读 · 0 评论 -
维度压缩
当特征选择完成之后,就可以直接训练模型了,但是可能由于特征矩阵过大导致计算量大,训练时间长的问题;因此,降低特征矩阵维度,也是必不可少的,主成分分析就是最常用的降维方法,在减少数据集的维度的...原创 2020-03-10 20:02:03 · 1001 阅读 · 0 评论 -
特征选择
什么特征选择特征选择 ( Feature Se...原创 2020-03-10 19:58:22 · 477 阅读 · 0 评论 -
机器学习 子集选择 subset selection
本节主要想表述选取子集的方法,就是在很多个variable里面选择其中比较好的几个来regression,而不是用所有的variable来做regression,那如何衡量选取的好坏呢?还是用...原创 2020-03-10 19:51:19 · 906 阅读 · 0 评论