机器学习
gaochao1995
这个作者很懒,什么都没留下…
展开
-
机器学习的最佳入门学习资源
这是一篇很难写的文章,因为我希望这篇文章能对学习者有所启发。我在空白页前坐下,并且问自己了一个很难的问题:什么样的库、课程、论文和书籍对于机器学习的初学者来说是最好的。文章里到底写什么、不写什么,这个问题真的让我很烦恼。我必须把自己当做一个程序员和一个机器学习的初学者,站在这个角度去考虑最合适的资源。我找出了每个类型中最适合的资源。如果你是一个真正的初学者,并且乐意于开始了解机器学转载 2014-08-25 09:59:14 · 401 阅读 · 1 评论 -
机器学习知识点汇总
一元线性,y = a + bx多元线性, y = a + bx +cx广义线性: 非线性的问题,用线性方程来解决,如:Logistic回归回归模型中的降维:就是把多个变量,拟合成1个变量x,y之间的关系分两种:1.函数关系:y=3+10x 2.相关关系:x.y之间没有明显的关系,但是可能同时受到另一个变量影响相关系数:我们使用相关系数去衡量线性相关性的强弱,决定可不可以原创 2014-12-04 21:41:09 · 483 阅读 · 0 评论 -
ridge regression岭回归
岭回归用于处理下面两类问题:1.数据点少于变量个数2.变量间存在共线性岭回归的原理岭回归是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价,获得回归系数更为符合实际、更可靠的回归方法,对病态数据的耐受性远远强于最小二乘法。岭回归的原理较为复杂。根据高斯马尔科夫定力,多重相关性并不原创 2014-12-19 22:22:48 · 4326 阅读 · 0 评论 -
Octave tutorial
https://share.coursera.org/wiki/index.php/ML:Octave_Tutorial原创 2015-01-05 11:35:20 · 310 阅读 · 0 评论 -
机器学习入门:Linear Regression与Normal Equation
本文会讲到: (1)另一种在线性回归方法中求theta值的方法:Normal Equation;(2)Gradient Descent与Normal Equation的优缺点;前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下特点:(1)需要预先选定Learning rate;(2)需要多次iteration;(3)需要转载 2015-01-05 10:59:27 · 362 阅读 · 0 评论 -
机器学习入门:线性回归及梯度下降
本文转载于:http://blog.csdn.net/xiazdong/article/details/7950084本文会讲到:(1)线性回归的定义(2)单变量线性回归(3)cost function:评价线性回归是否拟合训练集的方法(4)梯度下降:解决线性回归的方法之一(5)feature scaling:加快梯度下降执行速度的方法(6)多变量线性回归转载 2014-12-31 10:57:22 · 476 阅读 · 0 评论 -
机器学习资料大全
一个很全的机器学习方方面面的博客:http://www.52ml.net/categories/machinelearning/page/2原创 2015-01-05 15:12:42 · 316 阅读 · 0 评论