斯坦福公开课Machine Learning笔记(八)–Online Learning
这系列笔记其实已经手写好, 现在一次性发上来, 主要是怕丢. 内容以Andrew Ng的讲义为主,主要以公式推导与理解为主,引入和介绍省略.对于最后的Reinforcement Learning部分, 由于没有讲义以及对其实在不熟悉, 就没有笔记了(主要还是因为没有讲义).
现在在线学习用处还是挺广的,尤其是在现在大数据时代,每天都有非常多的数据产生.
与之前的batch learning算法不同的是,batch learning一定要先用训练集训练,在进行预测.但是online learning不一定有训练过程,可以一边预测一边训练,非常适合现在每天都产生很多数据的情况.
以感知器为例:
hθ(x)=g(θTx)
g(z)={1−1z≥0z<0
和LR类似,其实就是LR的简化版本
在线学习就是每次使用一个样本进行优化
原本的代价函数:
θj:=θj−α(hθ(x(i))−y(i))x(i)j
而感知器的代价函数:
θ:=θ+yx
其实就是在错误分类点时,加上或减去x
对于这个模型,他的误差也是有上界的,讲义中有详细证明.