![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习入门
weixin_43105300
这个作者很懒,什么都没留下…
展开
-
金融风控--task01_赛题理解
Oh My God, 这是第4次参加Datawhale 组织的开源学习了,很感激。组织二维码如下,如果有兴趣的朋友可以添加关注公众号!这一次打以这种比赛的方式进行学习,很期待!话不多说,进入主题!!!!1、赛题数据理解。1.1 要求,以个人信贷为背景,根据背景信息预测其是否有违约的可能。典型的分类任务,且输出违约的可能性。1.2 评价标准:提交结果为每个样本是1的概率。评价方法为AUC评估(越大越好)。AUC(Area Under Curve) AUC(Area Under Curve)被原创 2020-09-15 12:18:40 · 266 阅读 · 0 评论 -
Task03_SVM
SVM, 这里还是推荐阿泽的读书笔记。里面的内容写得很细。我还在理解当中。SVM 超详细在下面模型得可视化中。w参数由于是2维张量,所以需要在SVC.coef_ 后面加[0]表示取第一维。这里得问题点是:在可视化得时候,这里在得到W参数后,a1 为什么要是W[0]/W[1]??这是因为在二维平面上,我们考虑得决策边界得时候,为了方程的简写方便,写为了W^TX + B = 0. X为向量(X1,X2),这里X2就应该是Y。 所以我们求得的参数W[1]就应该是y的系数。 为了画图方便就需要把y的系数变原创 2020-08-26 22:47:16 · 109 阅读 · 0 评论 -
机器学习--决策树
首先需要安装的几个包:pip install python-graphvizpip install seaborn带着问题学习,事半功倍。1、决策树ID3,C4.5, CART的区别2、掌握Bagging 和Boosting3、掌握随机森林,XGBoost原理4、随机森林,XGB,LGB的各自区别5、GBDT和XGB的区别。决策树在现在的相亲或者择偶额过程中,下面的这种方式就是人的决策过程。而这种过程用图的形式表达出来就像一颗倒着的树的形状。所以这种结构就叫做决策树。观察这个决策流程原创 2020-08-22 20:55:59 · 136 阅读 · 0 评论 -
机器学习--Logistic Regression(逻辑回归)---分类器
1. 回归与分类的区别回归是统计学中最有力的工具之一。机器学习监督学习算法分为分类算法和回归算法两种,其实就是根据类别标签分布类型为离散型、连续性而定义的。回归算法用于连续型分布预测,针对的是数值型的样本,使用回归,可以在给定输入的时候预测出一个数值,这是对分类方法的提升,因为这样可以预测连续型数据而不仅仅是离散的类别标签。2. 逻辑“回归”Logistic Regression 虽然被称为回归,但其实际上是分类模型,并常用于二分类。Logistic Regression 因其简单、可并行化、可解释强原创 2020-08-20 23:03:15 · 1622 阅读 · 0 评论