![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
分类算法简述
文章平均质量分 94
RuDing
感觉会在程序媛的道路上越走越远(;′⌒`)
展开
-
SVM算法实例解析及应用
SVM简介Support Vector Machine (SVM) 是一个监督学习算法,既可以用于分类(主要)也可以用于回归问题。SVM算法中,我们 将数据绘制在n维空间中(n代表数据的特征数),然后查找可以将数据分成两类的超平面。支持向量指的是观察的样本在n为空间中的坐标,SVM是将样本分成两类的最佳超平面。SVM的作用机制上面的简介告诉我们的是SVM是通过超平面将两类样本分开,本部分主要讲解如翻译 2017-09-17 10:44:35 · 11440 阅读 · 0 评论 -
逻辑回归(logistics regression)算法及实例
逻辑回归简介逻辑回归(Logistic Regression)是机器学习中的一种二分类模型(主要为二分类应用,Softmax 回归是直接对逻辑回归在多分类的推广,即多元逻辑回归),由于算法的简单和高效,在实际中应用非常广泛。主要用途:寻找危险因素:什么样的用户通常会是“bad”用户?预测判别:用户是 “good”还是“bad”? 多大的概率是好用户,多大的概率是差用户?二分类问题及应用:获客评原创 2017-10-12 17:36:58 · 14026 阅读 · 0 评论 -
如何选择机器学习算法
如何针对某个分类问题决定使用何种机器学习算法? 当然,如果你真心在乎准确率,最好的途径就是测试一大堆各式各样的算法(同时确保在每个算法上也测试不同的参数),最后选择在交叉验证中表现最好的。倘若你只是想针对你的问题寻找一个“足够好”的算法,或者一个起步点,这里给出了一些我觉得这些年用着还不错的常规指南。How large is your training set?如果是小训练集,高偏差/低方差的分类器转载 2017-10-23 16:26:42 · 303 阅读 · 0 评论 -
Gradient Boosting(GBM) 调参指南
译文:Complete Guide to Parameter Tuning in Gradient Boosting (GBM) in Python简介这边文章帮助大家去看看GBM的是如何真正工作的。原文受启发于 NYC Data Science Academy 与bagging 在模型中只控制高方差不同的是,Boosting 算法善于处理偏差(bias)方差(variance)问题(trade-翻译 2017-10-24 17:34:11 · 12763 阅读 · 2 评论 -
各类模型参数汇总
1. SVM1.1 SVCsklearn.svm.SVC(C=1.0, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False,tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decisio转载 2017-11-20 16:11:52 · 4037 阅读 · 0 评论