- 博客(6)
- 资源 (10)
- 收藏
- 关注
原创 机器学习笔记05:正则化(Regularization)、过拟合(Overfitting)
说明:文章中的所有图片均属于Stanford机器学习课程(一)过拟合问题(The Problem of Overfitting)不管是在线性回归还是在逻辑回归中,我们都会遇到过拟合的问题。先从例子来看看什么是过拟合。i.线性回归中的过拟合还是以房价预测为例,来看几张张图片:1.欠拟合(Underfitting) 上图中,我们用一条直线 hθ(x)=θ0+θ1xh_
2016-04-30 20:01:58 11082 4
原创 Coursera Stanford 机器学习 笔记文章链接
此系列笔记对应于Coursera上的Stanford机器学习课程文章链接: 1.《机器学习笔记01:线性回归(Linear Regression)和梯度下降(Gradient Decent)》 2.《机器学习笔记02:多元线性回归、梯度下降和Normal equation》 3.《机器学习笔记03:正规方程(Normal equation)与梯度下降的比较》 4.《机器学习笔记04:逻辑回归
2016-04-29 12:09:43 7956 1
原创 机器学习笔记04:逻辑回归(Logistic regression)、分类(Classification)
我们已经大概学习了用线性回归(Linear Regression)来解决一些预测问题,详见: 1.《机器学习笔记01:线性回归(Linear Regression)和梯度下降(Gradient Decent)》 2.《机器学习笔记02:多元线性回归、梯度下降和Normal equation》 3.《机器学习笔记03:Normal equation及其与梯度下降的比较》面对一些类似回归
2016-04-28 00:49:04 12982 2
原创 机器学习笔记03:Normal equation与梯度下降的比较
在《机器学习笔记02》中已经讲了多变量的梯度下降法,以及其他的一些小技巧和注意事项。下面来讲一种更加数学化的方法,我们称之为Normal equation,网上也没找到什么标准的翻译,就暂且称其为矩阵方程法吧。一、简单回顾梯度下降如下图所示,我们在进行梯度下降的时候,一般都会执行多次迭代,才能得出最佳的一组 θ\theta 值。 我们能不能只用一次数学意义上的计算就能把所有的
2016-04-18 21:59:58 17496 12
原创 机器学习笔记02:多元线性回归、梯度下降和Normal equation
在《机器学习笔记01》中已经讲了关于单变量的线性回归以及梯度下降法。今天这篇文章作为之前的扩展,讨论多变量(特征)的线性回归问题、多变量梯度下降、Normal equation(矩阵方程法),以及其中需要注意的问题。单元线性回归首先来回顾一下单变量线性回归的假设函数: Size(feet2feet^2) Price($\$1000) 2104 460 1416 232 15
2016-04-17 00:31:07 12569
原创 机器学习笔记01:线性回归(Linear Regression)和梯度下降(Gradient Decent)
最近在Coursera上看吴大神的Machine Learning,感觉讲的真的很棒。所以觉得应该要好好做做笔记,一方面是加强自己对ML中一些方法的掌握程度和理解,另一方面也能方便自己或者同样爱好ML的同学。线性回归(Linear Regression) 线性回归(Linear Regression)应该是机器学习中最基本的东西了。所谓回归,想必大家在高中时期的课程里面就接触过,给定一系列离散的点
2016-04-09 14:33:27 9853 1
2014Computer Organization and Design 5th
2016-02-24
Pattern Recognition and Machine Learning.pdf 模式识别与机器学习
2015-12-16
Introduction To Algorithms Third Edition.pdf
2015-11-29
Algorithms for Image Processing and Computer Vision.pdf
2015-11-29
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人