机器学习
一起学习计算机
这个作者很懒,什么都没留下…
展开
-
XGBoost采用GridSearch调参
import xgboost as xgbfrom sklearn.model_selection import train_test_splitfrom sklearn.datasets import load_breast_cancerfrom sklearn.model_selection import GridSearchCVcancer = load_breast_canc...原创 2020-03-18 15:48:32 · 1280 阅读 · 1 评论 -
学习斯坦福机器学习笔记—第三课
Logistic Regression上一次的课程主要解决回归分析问题,这一次的课程主要为分类问题,分类问题也可看做将回归问题的连续性离散化。1.1 Classification先来谈谈二分类问题。课程中先给出了几个例子。 邮件是垃圾邮件还是非垃圾邮件;网上交易是的欺骗性(Y or N);肿瘤是恶性的还是良性的。 对于这些问题,我们可以通过输出值y ϵϵ {0, 1} 来表示。 通过上次的课程,我...转载 2018-05-17 09:08:12 · 507 阅读 · 0 评论 -
机器学习第五章——Logistic回归算法
1:简单概念描述假设现在有一些数据点,我们用一条直线对这些点进行拟合(该线称为最佳拟合直线),这个拟合过程就称为回归。训练分类器就是为了寻找最佳拟合参数,使用的是最优化算法。这就是简单的线性回归问题,可以通过最小二乘法求解其参数,最小二乘法和最大似然估计见:http://blog.csdn.net/lu597203933/article/details/45032607。 但是当有一类情况如判断邮...转载 2018-05-17 16:03:39 · 352 阅读 · 0 评论 -
机器学习算法之:指数族分布与广义线性模型
参考NG的lecture note1 part3 本文将首先简单介绍指数族分布,然后介绍一下广义线性模型(generalized linear model, GLM), 最后解释了为什么逻辑回归(logistic regression, LR) 是广义线性模型的一种。指数族分布指数族分布 (The exponential family distribution),区别于指数分布(exponenti...转载 2018-05-17 18:04:24 · 358 阅读 · 0 评论 -
学习斯坦福机器学习—第四课
1、最速下降法和牛顿法1.1 最速下降法计算步骤如下:(1)给定初始点x(1)∈R(n)x(1)∈R(n),允许误差ϵϵ>0,置k=1k=1;(2)计算搜索方向d(k)=−▽f(x(k))d(k)=−▽f(x(k));(3)若||d(k)||≤ϵ||d(k)||≤ϵ,则停止计算;否则,从x(k)x(k)沿d(k)d(k)进行一维搜索,求λkλk,使得f(x(k)+λkd(k))=min(f(...转载 2018-05-17 18:06:00 · 464 阅读 · 0 评论