机器学习
fisherduan
这个作者很懒,什么都没留下…
展开
-
1、数据清洗
1 、缩放特征值:Z得分方法 2、处理极端离群值对数缩放将特征值限制在某个值原创 2018-04-16 21:23:10 · 213 阅读 · 0 评论 -
2、监督学习和无监督学习
(一)监督学习:教计算机学习,用标记过的数据训练模型。监督学习中常见的问题有回归问题和分类问题1、回归问题,意指要预测一个连续值的输出; Linear Regression线性回归2、分类问题,将回归模型的结果离散化。 Logistic Regression逻辑回归用于解决二分类问题(二)无监督学习:让计算机自己学习聚类算法鸡尾酒会算法...原创 2018-04-16 21:25:05 · 155 阅读 · 0 评论 -
3、线性回归
线性回归Linear Regression m表示训练样本的数目原创 2018-04-16 21:26:00 · 192 阅读 · 0 评论 -
4、梯度下降算法
:= 这个符号表示赋值α 表示学习率更新参数要同时更新原创 2018-04-16 21:27:01 · 108 阅读 · 0 评论 -
5、特征缩放
当多个特征的范围差距过大时,代价函数的轮廓图会非常的偏斜,如下图左所示,这会导致梯度下降函数收敛的非常慢。因此需要特征缩放(feature scaling)来解决这个问题,特征缩放的目的是把特征的范围缩放到接近的范围。当把特征的范围缩放到接近的范围,就会使偏斜的不那么严重。通过代价函数执行梯度下降算法时速度回加快,更快的收敛。...原创 2018-04-16 21:28:05 · 371 阅读 · 0 评论 -
6、如何调试和选择学习率α
第一、画出代价函数和迭代次数的曲面观察代价函数是否收敛;第二、利用一个算法检测代价函数是否已经收敛;例如代价函数的下降小于一个很小的值ε(1*e-3)就认为已经收敛第三:应该选择较小的学习率Summary:-If α is too small: slow convergence.-If α is too large: J(θ) may not decrease on every iteration...原创 2018-04-16 21:28:44 · 518 阅读 · 0 评论 -
7、合理选择特征以及多项式回归拟合数据
这样选择特征的时候,要注意特征值的归一化,让值的范围变的有可比性。根据数据选择合适的模型去拟合,除了用三次函数之外,还可以用平方根函数去拟合数据。...原创 2018-04-16 22:10:59 · 1428 阅读 · 0 评论 -
8、标准方程法
对于某些线性回归问题,采用标准方程法而不是梯度下降法(迭代)求解θ会更加快捷方便。令所有偏导数为0,求解所有θ值。原创 2018-04-16 22:34:56 · 1355 阅读 · 1 评论