- 博客(15)
- 资源 (1)
- 收藏
- 关注
原创 模型融合
任务5 模型融合 stacking 简单加权融合 blending boosting bagging 将多个模型结果再放入模型中预测 1.将特征放进模型中预测,并将预测结果作为新的特征加入原有特征中再经过模型预测结果(可以反复预测多次将结果加入最后的特征中) from sklearn.model_selection import KFold folds = KFold(n_splits...
2019-07-15 15:27:53 320
原创 机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第十一章
第十一章 目录 11 - 1 - Prioritizing What to Work On 11 - 2 - Error Analysis 11 - 3 - Error Metrics for Skewed Classes 11 - 4 - Trading Off Precision and Recall 11 - 5 - Data For Machine Learning 11 - 1 - P...
2019-02-24 15:04:44 213
原创 机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第十章
第十章 目录 10 - 1 - Deciding What to Try Next 10 - 2 - Evaluating a Hypothesis 10 - 3 - Model Selection and Train_Validation_Test Sets 10 - 4 - Diagnosing Bias vs. Variance 10 - 5 - Regularization and Bia...
2019-02-20 18:11:08 192
原创 机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第九章
第九章 目录 9 - 1 - Cost Function 9 - 2 - Backpropagation Algorithm 9 - 3 - Backpropagation Intuition 9 - 4 - Implementation Note_ Unrolling Parameters 9 - 5 - Gradient Checking 9 - 6 - Random Initializati...
2019-02-18 10:59:11 219
原创 机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第八章
第八章 目录 8 - 1 - Non-linear Hypotheses 8 - 2 - Neurons and the Brain 8 - 3 - Model Representation I 8 - 4 - Model Representation II 8 - 5 - Examples and Intuitions I 8 - 6 - Examples and Intuitions II 8...
2019-02-14 17:56:43 177
原创 机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第七章
第七章 目录 7 - 1 - The Problem of Overfitting 7 - 2 - Cost Function 7 - 3 - Regularized Linear Regression 7 - 4 - Regularized Logistic Regression 7 - 1 - The Problem of Overfitting 回归问题: 如图第一个模型是一个一阶线性模...
2019-02-02 23:37:32 168
原创 机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第六章
第六章 目录 6 - 1 - Classification 6 - 2 - Hypothesis Representation 6 - 3 - Decision Boundary 6 - 4 - Cost Function 6 - 5 - Simplified Cost Function and Gradient Descent 6 - 6 - Advanced Optimization 6 - ...
2019-01-31 20:26:21 218
原创 机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第四章
第四章 目录 4 - 1 - Multiple Features 4 - 2 - Gradient Descent for Multiple Variables 4 - 3 - Gradient Descent in Practice I - Feature Scaling 4 - 4 - Gradient Descent in Practice II - Learning Rate 4 - 5 ...
2019-01-29 22:15:59 185
原创 机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第二章
视频笔记 第二章 目录 2 - 1 - Model Representation 2 - 2 - Cost Function 2 - 3 - Cost Function - Intuition I 2 - 4 - Cost Function - Intuition II 2 - 5 - Gradient Descent 2 - 6 - Gradient Descent Intuition 2 ...
2019-01-09 16:11:41 188
原创 机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第一章
机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第一章 目录 *1 - 1 - Welcome (7 min) 1 - 2 - What is Machine Learning_ (7 min) 1 - 3 - Supervised Learning (12 min) 1 - 4 - Unsupervised Learning (14 min) * 1 ...
2019-01-08 20:43:52 432 1
原创 [Task3] XGBoost算法梳理
XGBoost算法梳理 XGBoost自发布以来就受到了大家的关注,可以发现目前很多预测类竞赛的前几名解决方案中都经常出现XGBoost。很多选手都是在特征工程后直接通过XGBoost和lightGBM进行预测,一般调参后都能取得不错的效果。 目录 1. XGB 2. CART树 3. 算法原理 4. 损失函数 5.分裂结点算法 5. 正则化 6. 对缺失值处理 7. RF, GBDT,...
2018-12-23 18:15:10 284
原创 [Task2] GBDT算法梳理
GBDT算法梳理 目录 1. GBDT 2. GBDT思想 3. 负梯度拟合 4. 损失函数 5. 回归分类 6. 多元分类 7. 正则化 8. 优缺点 9. sklearn参数 10. 应用场景 1. GBDT 2. GBDT思想 3. 负梯度拟合 4. 损失函数 5. 回归分类 6. 多元分类 7. 正则化 8. 优缺点 9. sklearn参数 10. 应用场景 ...
2018-12-21 14:54:03 411
原创 [Task1]随机森林算法梳理
随机森林算法梳理 目录 1. 个体学习器概念 2. 集成学习概念 3. boosting bagging 4. 结合策略(平均法,投票法,学习法) 5. 随机森林思想 6. 随机森林的推广 7. 优缺点 8. sklearn参数 9. 应用场景 个体学习器的概念 个体学习器通常由一个现有的学习算法训练数据所产生,例如常见的svm、决策树、逻辑回归等。 集成学习器概念 由多个学习器构建并结合则形...
2018-12-19 16:44:57 533
泰坦尼克号案例ppt
2019-02-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人