cs229机器学习笔记
wshaowvip
这个作者很懒,什么都没留下…
展开
-
CS229 课程笔记一
监督学习 线性回归 如何通过学习得到训练参数 LMSleast squares regression model算法 方式一批梯度下降法batch gradient descent 方式二随机梯度下降法 标准方程 矩阵求导 最小二乘法回顾 概率解释 局部加权线性回归 分类和逻辑回归 逻辑回归 感知器学习算法 另外一个最大化elltheta的算法牛顿法 广义线性模型Generalized原创 2018-01-19 20:25:37 · 1316 阅读 · 2 评论 -
cs229 机器学习笔记二 生成模型与判别模型
生成学习算法 至此,我们已经对给定xx后yy的条件概率p(y|x;θ)p(y|x;\theta)进行建模的学习算法。例如逻辑回归模型将p(y|x;θ)p(y|x;\theta)建模得到hθ(x)=g(θTx)h_\theta(x)=g(\theta^Tx)这里函数gg为sigmoid函数,在这个笔记中,我们将介绍另外一种学习算法。 我们先来考虑这样一个分类问题:我们想区分大象(y=1y=1)和原创 2018-01-23 15:38:49 · 347 阅读 · 0 评论 -
cs229笔记三 支持向量机
支持向量机Support Vector Machine SVM 间隔直觉 符号 函数间隔以及几何间隔 最优间隔分类器 拉格朗日对偶 最优间隔分类器 核Kernels 规则化以及不可分情况 SMO算法 坐标上升法 SMO算法 支持向量机(Support Vector Machine ,SVM ) SVMs通常被认为是最好的现成的学习算法。在叙述SVM之前我们先讨论一下边界和原创 2018-01-24 21:13:23 · 402 阅读 · 0 评论 -
cs229 学习笔记四 学习理论
偏差/方差 权衡 当我们说道线性回归时,我们会考虑是使用简单点的模型y=θ0+θ1x" role="presentation" style="position: relative;">y=θ0+θ1xy=θ0+θ1xy=\theta_0 + \theta_1 x还是使用更加复杂的模型y=θ0+θ1x+θ2x2+⋯原创 2018-01-28 22:30:42 · 463 阅读 · 0 评论