笔记
文章平均质量分 82
橘猫非猫gkd
这个作者很懒,什么都没留下…
展开
-
分类模型性能评估及调参
转载来源:datawhale-集成学习参考资料:内容思路:https://zhuanlan.zhihu.com/p/140040705归一化:https://blog.csdn.net/wzyaiwl/article/details/90549391支持向量机(分类):http://ihoge.cn/2018/SVWSVC.htmlGridSearchCV流程 1.1 人工设定参数 1.2 排列组合并遍历比较结果RandomSearchCV搜索流程 2.1 对于搜索范围是.转载 2021-03-29 23:55:29 · 388 阅读 · 0 评论 -
分类问题
分类项目收集数据集并选择合适的特征选择度量模型性能的指标真正例TP:预测值为正,真实值为正;真负例TN:预测值为负,真实值为负;假正例FP:预测值为正,真实值为负;假负例FN:预测值为负,真实值为正;预测P预测N实际P真正例 TP假负例 FN实际N假正例 FP真负例 TN分类模型的指标:- 准确率:分类正确的样本数占总样本的比例,即:ACC=TP+TNFP+FN+TP+TNACC = \frac{TP+TN}{FP+FN+TP+TN}转载 2021-03-28 00:04:09 · 109 阅读 · 0 评论 -
回归模型评估及超参数调优
(5) 对模型超参数进行调优(调参):在之前的讨论中,我们似乎对模型的优化都是对模型算法本身的改进,比如:岭回归对线性回归的优化在于在线性回归的损失函数中加入L2正则化项从而牺牲无偏性降低方差。但是,大家是否想过这样的问题:在L2正则化中参数λ\lambdaλ应该选择多少?是0.01、0.1、还是1?到目前为止,我们只能凭经验或者瞎猜,能不能找到一种方法找到最优的参数λ\lambdaλ?事实上,找到最佳参数的问题本质上属于最优化的内容,因为从一个参数集合中找到最佳的值本身就是最优化的任务之一,我们脑海中浮转载 2021-03-24 23:52:42 · 349 阅读 · 0 评论 -
偏差及方差理论
下面我们使用随机搜索来对SVR调参:from sklearn.model_selection import RandomizedSearchCVfrom scipy.stats import uniform # 引入均匀分布设置参数pipe_svr = Pipeline([(“StandardScaler”,StandardScaler()),(“svr”,SVR())])distributions = dict(svr__C=uniform(loc=1.0, scale=4), # 构建转载 2021-03-22 22:32:36 · 331 阅读 · 0 评论 -
基本的回归模型
基本的回归模型2. 使用sklearn构建完整的机器学习项目流程 2.1 使用sklearn构建完整的回归项目 2.2 使用sklearn构建完整的分类项目3.2. 使用sklearn构建完整的机器学习项目流程 2.1 使用sklearn构建完整的回归项目 2.2 使用sklearn构建完整的分类项目3....转载 2021-03-18 23:00:49 · 267 阅读 · 0 评论