机器学习
文章平均质量分 69
大写的ZDQ
这个作者很懒,什么都没留下…
展开
-
Atan2和Atan的区别和使用
参考:https://blog.csdn.net/yjl9122/article/details/50995564https://blog.csdn.net/chinabinlang/article/details/6802686atan2(a,b)是4象限反正切,它的取值不仅取决于正切值a/b,还取决于点 (b, a) 落入哪个象限:当点(b, a) 落入第一象限时,atan2(a,b)的范围是 0 ~ pi/2; 当点(b, a) 落入第二象限时,atan2(a,b)的范围是 pi/2 ~ pi转载 2020-09-04 13:11:11 · 11590 阅读 · 1 评论 -
机器学习算法之(1)——线性回归
机器学习首当其冲的应该就是线性回归,什么叫线性?回想起“自然辩证法”课上老师问一个同学什么是线性,那同学把矩阵论里的基的概念都搬出来了。。。结果老师一脸懵逼并批评他:搞这么麻烦,什么鸡,还鸭呢!爆笑全场。线性就是y = ax + b嘛!回归就是自然界将分布约束在相对稳定而不产生两级分化的整体水平,如下图,最经典的线性回归还是房价的预测。横坐标可以是不同的特征:面积,地理位置,还有是否朝阳。 ...原创 2018-07-28 23:18:06 · 497 阅读 · 0 评论 -
xgboost问题:OsError: WinError 126 找不到指定模块
import xgboost出现下面的问题:OsError: WinError 126 找不到指定模块那么我的解决办法是下一个MinGW-w64mingw下载地址最后一定要记得添加下载的mingw的环境变量比如:C:\Program Files\mingw-w64\x86_64-8.1.0-posix-seh-rt_v6-rev0\mingw64\bin...原创 2018-09-29 22:40:41 · 1971 阅读 · 0 评论 -
kaggle房价预测xgboost_baseline
这里参考了这位大神的文章:https://blog.csdn.net/youyuyixiu/article/details/72840893先膜拜一下自己处理过一些房价预测的数据,但是test测试集的特征情况和train训练集是不一样的,所以之前捣鼓了好久都没有成功,索性,就按照大佬的方法吧两个数据集给合并起来处理,具体如下:step 0:引入相关的包import numpy as np...原创 2018-11-12 16:49:10 · 1539 阅读 · 0 评论 -
知识点总结-Logistic回归和正则化
线性模型家族中比较著名的就是logistic回归,和线性回归有什么关系?logistic回归处理的是分类问题,而线性回归处理的是回归问题,这是最本质的区别。在logistic回归中,因变量取值是一个二元分布,模型学习得出的是E(y∣x;θ)E(y|x;\theta)E(y∣x;θ),即给定自变量和超参数之后,得到因变量的期望,并基于此期望来处理预测分类问题。目标函数:最大化条件概率max∑l...原创 2019-01-28 11:06:18 · 1229 阅读 · 0 评论 -
知识点总结—KNN
**算法:**给一个点x0x_0x0,我们在训练集中找到K个最近邻近的店,根据这K个点的分类来决定x0x_0x0的类别距离度量Minkovski距离:对于X=(x1,x2,…xn)Y=(y1,y2…yn)∣∣X−Y∣∣p=[(x1−y1)p+(x2−y2)p+...(xn−yn)p]1p||X-Y||_p = [(x1-y1)^p+(x2-y2)^p+...(xn-yn)^p]^{\fr...原创 2019-01-28 11:37:41 · 314 阅读 · 0 评论 -
集成学习知识点
集成学习(ensemble learning)通过多个机器学习模型的组合形成一个精度更高的模型,参与组合的模型称为弱学习器(weak learner)。在预测时使用这些弱学习器模型联合进行预测,训练时需要用训练样本集依次训练出这些弱学习器。根据训练各个弱学习器的不同思路,目前广为使用的有两种方案:Bagging和Boosting前者通过对原始训练样本集进行随机抽样,形成不同的训练样本集来训练...原创 2019-01-29 22:26:01 · 1015 阅读 · 0 评论 -
机器学习之集成学习相关考点
1.集成学习分哪几种,有何异同?Bagging在训练的过程中,各弱分类器无强依赖,可以进行并行训练,更像是一个集体决策的过程,最终做决策的时候,每个个体单独做判断,在通过投票的方式做出最后的集体决策boosting采用弱分类器串行的方式,有依赖。基本思路是将弱分类器叠加,每一层在训练的时候,对前一层的弱分类器分错的样本,给予更高的权重。测试时,根据各层分类器的结果的加权得到最终结果。再从...原创 2019-01-30 11:01:21 · 462 阅读 · 0 评论 -
机器学习之聚类算法总结
聚类实在实现不知道任何样本类别标签的情况下,通过数据之间的内在关系把样本划分为若干类别,使得同类别样本之间的相似度高,不同类别之间的样本相似度低。分类问题属于监督学习范畴,而聚类则是非监督学习。Kmeans他的基本思想是:通过迭代过程把数据集划分为不同的类别,使得评价聚类性能的准则函数达到最优,从而使生成的每个聚类内紧凑,类间独立。算法的过程:1.数据预处理,如归一化,离散点处理等。2...原创 2019-01-30 16:17:21 · 1095 阅读 · 1 评论