- 博客(7)
- 收藏
- 关注
转载 分类模型性能评估及调参
转载来源:datawhale-集成学习参考资料:内容思路:https://zhuanlan.zhihu.com/p/140040705归一化:https://blog.csdn.net/wzyaiwl/article/details/90549391支持向量机(分类):http://ihoge.cn/2018/SVWSVC.htmlGridSearchCV流程 1.1 人工设定参数 1.2 排列组合并遍历比较结果RandomSearchCV搜索流程 2.1 对于搜索范围是.
2021-03-29 23:55:29 379
转载 分类问题
分类项目收集数据集并选择合适的特征选择度量模型性能的指标真正例TP:预测值为正,真实值为正;真负例TN:预测值为负,真实值为负;假正例FP:预测值为正,真实值为负;假负例FN:预测值为负,真实值为正;预测P预测N实际P真正例 TP假负例 FN实际N假正例 FP真负例 TN分类模型的指标:- 准确率:分类正确的样本数占总样本的比例,即:ACC=TP+TNFP+FN+TP+TNACC = \frac{TP+TN}{FP+FN+TP+TN}
2021-03-28 00:04:09 103
转载 回归模型评估及超参数调优
(5) 对模型超参数进行调优(调参):在之前的讨论中,我们似乎对模型的优化都是对模型算法本身的改进,比如:岭回归对线性回归的优化在于在线性回归的损失函数中加入L2正则化项从而牺牲无偏性降低方差。但是,大家是否想过这样的问题:在L2正则化中参数λ\lambdaλ应该选择多少?是0.01、0.1、还是1?到目前为止,我们只能凭经验或者瞎猜,能不能找到一种方法找到最优的参数λ\lambdaλ?事实上,找到最佳参数的问题本质上属于最优化的内容,因为从一个参数集合中找到最佳的值本身就是最优化的任务之一,我们脑海中浮
2021-03-24 23:52:42 342
转载 偏差及方差理论
下面我们使用随机搜索来对SVR调参:from sklearn.model_selection import RandomizedSearchCVfrom scipy.stats import uniform # 引入均匀分布设置参数pipe_svr = Pipeline([(“StandardScaler”,StandardScaler()),(“svr”,SVR())])distributions = dict(svr__C=uniform(loc=1.0, scale=4), # 构建
2021-03-22 22:32:36 327
转载 基本的回归模型
基本的回归模型2. 使用sklearn构建完整的机器学习项目流程 2.1 使用sklearn构建完整的回归项目 2.2 使用sklearn构建完整的分类项目3.2. 使用sklearn构建完整的机器学习项目流程 2.1 使用sklearn构建完整的回归项目 2.2 使用sklearn构建完整的分类项目3....
2021-03-18 23:00:49 224
原创 最小二乘法推导
最小二乘法推导假设一组数据线性关系为 y=β0+β1x\ y=\beta_0 +\beta_1x y=β0+β1x实际建模中系数 β0,β1\ \beta_0,\beta_1 β0,β1是未知的,但是我们的数据是已知的,为了让我们估计的 y^\ \hat{y} y^与实际的 y\ y y 尽可能接近,我们使 RSS=(y1−y^1)2+(y2−y^2)2+……+(yn−y^n)2\ RSS = (y_
2021-03-17 22:09:21 810
转载 机器学习的三大基本任务
导语:通过对机器学习的定义、作用、分类三个角度来了解机器学习的基本概念。定义:机器学习是一个通过观察数据规律,从而得到数学模型来概括数据的过程。作用:通过数学模型,我们可以对数据做出分析和预测。样本和变量:数据通常由一组向量组成,这组向量中的每个向量都是一个样本,我们用 ???????? 来表示一个样本,其中 ????=1,2,3,…,???? ,共N个样本,每个样本 ????????=(????????1,????????2,…,????????????,????????) 共p+1个
2021-03-15 22:36:38 839
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人