集成学习之Bagging与随机森林(ensemble learning) 集成学习里面的随机森林,用交叉验证来计算随机森林解决决策树的过拟合问题。用随机森林解释普通学习和增量学习的区别,增量学习是新数据训练模型之后,模型仍然记得原来的树。
Sklearn机器学习——预测明天是否会下雨 探索澳大利亚天气,进行特征工程时对于地点这个特征进行爬虫爬取,使之与气候站的天气进行关联。数据预处理也比较繁琐。后期进行建模对于准确度和recall都进行不断优化。算是难度比较大的一个svm案例。
Sklearn机器学习——ROC曲线、ROC曲线的绘制和AUC面积、运用ROC曲线找到最佳阈值 介绍了如何平衡分类正确率和误判多数变成小数的成本的一个图像,ROC曲线(横坐标是假正率,纵坐标是Recall)。AUC曲线面积越大越好。
机器学习Sklearn——核函数参数的选取、硬间隔和软间隔、重要参数C 介绍四个核函数的参数如何选取,运用学习曲线和网格搜索进行调参。介绍了硬间隔和软间隔的概念,并在数据不完全线性可分,介绍了松弛变量里面的惩罚系数C。在乳腺癌数据案例中找到rbf最适合的两个参数...
机器学习Sklearn——核函数、核函数在不同数据集上的表现、核函数的优势和缺点 介绍核函数的不同类型、核函数在不同数据集上的表现,在rbf上表现最好。以及核函数的缺点,提醒我们需要将数据进行统一量纲处理。
深度学习课程笔记——回归、精灵宝可梦案例 本文介绍深度学习中回归案例,通过计算进化后的精灵宝可梦的武力值进行线性回归,从最简单的一次回归模型不断优化成带有条件函数的二次模型,模型评价详细介绍了MLS的解决办法(梯度下降)和过拟合解决办法(正则化)。
机器学习基础——模型的加载和保持、逻辑回归 介绍了逻辑回归这个解决二分类模型的判别模型,用癌症分类问题进行了案例分析,温习了估计其流程以及召回率。并最后阐明了模型的优缺点以及与朴素贝叶斯这个生成模型的区别。
机器学习基础——线性回归、过拟合和欠拟合、岭回归和Lasso回归 介绍了非监督学习里面的回归算法的定义,并用波士顿房价的例子进行线性回归,将两种解法(梯度下降法和正规方程法)进行对比,运用均方误差和进行模型评估。还介绍了过拟合和欠拟合以及他们的解决办法(岭回归和Lasso回归)。.........
机器学习基础——分类算法之决策树、随机森林、Titanic乘客生存分类 对于决策树和随机森林两个模块进行介绍,用kaggle里面的泰坦尼克号数据集预测生存分类进而巩固算法。随机森林对于相同的数据集进行运算准确率更高,普适性更强。
机器学习基础——分类算法之朴素贝叶斯算法(Bayes)、分类模型评估、选择和调优 介绍了运用贝叶斯算法进行分类,他 的基本概念、进行文本分类案例,进行优缺点的评估。以及分类模型地方调参技巧(网格搜索)以及交叉验证,并在实例中进行检验
机器学习基础——分类算法之K近邻算法(KNN)、预测facebook签到位置案例 机器学习里面的knn算法,比较细节得分析了一个 kaggle上面的完整案例,包括处理数据、拟合模型和测试模型,计算准确率等。
机器学习基础——数据集的划分、转换器和估计器 在sklearn包里面学会一些数据集(鸢尾花、糖尿病、伦敦房价)以及如何split这些数据集为train data和test data ;介绍了处理数据的transformer和算法的接口以及非监督学习的步骤,为后续做回归以及分类打基础......
研究用户对物品类别的喜好细分降维——PCA(主成分分析) 可以用scikit-learn包来直接调用主成分分析PCA,除了透视表pivot_table()之后,pd.crosstab()透视表。还通过实例介绍了表合并的技巧。
DataFrame基础操作巩固——项目需求 用户消费行为分析,增加了透视表、map、applymap和apply函数的区分还有一些数据分析的思路,融合了画散点图、直方图和折线图,增加了匿名函数和def函数