机器学习
文章平均质量分 72
two_star
Email:xingxin.hsing@gmail.com
Blog:https://twostarxx.github.io/
展开
-
【机器学习基础】集成模型
文章目录概述1. Boosting2. Bagging偏差和方差的区别3. Stacking4. Dropout训练Random Forest1.原理2.优缺点拓展:【RF模型能够输出特征的重要性程度】GBDT1. GBDT适用范围?2. GBDT和随机森林(RF)的区别?3. GBDT相较于决策树有什么优点?4. GBDT的gradient体现在哪里?5. GBDT的re-sampleXgboost建树方式树分裂方式:exact树集成方式分布式稀疏数据level_wiseLGBM树分裂方式建树方式:his原创 2021-05-16 17:45:14 · 1377 阅读 · 0 评论 -
Cost Function的原理及实现(Python, matlab)
成本函数梯度下降原创 2017-11-18 00:29:45 · 6649 阅读 · 0 评论 -
Coursera Machine Learning 作业代码 week3
Coursera Machine Learning作业代码 week3原创 2017-12-04 23:53:54 · 608 阅读 · 4 评论 -
常用模型使用
文章目录LightGBMxgboostLearning CurvesLightGBMfrom sklearn.model_selection import train_test_splitcol = [i for i in train_notnull.columns if i not in ['sales', 'date','id']]y = 'sales'train_x, test_x...原创 2018-11-20 21:37:53 · 493 阅读 · 0 评论 -
Python数据处理常用操作
Python数据处理常用操作垃圾回收机制计数机制垃圾回收机制计数机制python里每一个东西都是对象,它们的核心就是一个结构体:PyObject。PyObject是每个对象必有的内容,其中ob_refcnt就是做为引用计数。当一个对象有新的引用时,它的ob_refcnt就会增加,当引用它的对象被删除,它的ob_refcnt就会减少。...原创 2018-11-17 22:56:29 · 270 阅读 · 0 评论 -
【机器学习基础】核函数详解
【机器学习基础】核函数详解1. 核函数的定义2. Gram矩阵3. 常用的核函数4. SVM如何选择核函数?机器学习中,对于线性可分的情况研究的比较透彻,可以采用svm/lr/感知机等成熟的机器学习模型,但是很多情况是我们希望我们的模型学习非线性的模型。通常的做法就是选择一个函数ϕ(x)ϕ(x)将xx映射到另一个空间中,这里的核心就是如何选择ϕ(x)ϕ(x).一般有三种做法1)通过核函数,比如...原创 2018-12-05 11:23:32 · 1808 阅读 · 0 评论 -
【机器学习】面试大题
面试1. 数据归一化和标准化区别及原因2. 欧氏距离和曼哈顿距离的区别3. 哪些机器学习算法不需要归一化?4. ML项目流程5. LR为什么要对特征离散化?6. 怎么防止过拟合?7. LR和SVM1. 数据归一化和标准化区别及原因标准化:数据缩放到一个小的特定区间归一化:缩放到(0, 1)之间2. 欧氏距离和曼哈顿距离的区别公式图解3. 哪些机器学习算法不需要归一化?贝...原创 2018-12-05 11:26:34 · 1869 阅读 · 0 评论 -
【机器学习基础】决策树及其ensemble方法(RF, LGBM, Xgboost, GBDT, 梯度提升boosting)
【机器学习基础】决策树及其ensemble方法(RF, LGBM, Xgboost, GBDT, 梯度提升boosting)1. 关系2. Boostrap3. Bagging3.1 Baggin定义3.2 随机森林(RandomForest)4. Boosting4.1 Boosting定义4.2 Adaboost4.3 Gradient Boosting1. 关系2. Boostrap...原创 2018-12-09 22:20:25 · 3983 阅读 · 0 评论