斯坦福公开课Machine Learning笔记(八)--Online Learning

斯坦福公开课Machine Learning笔记(八)–Online Learning

这系列笔记其实已经手写好, 现在一次性发上来, 主要是怕丢. 内容以Andrew Ng的讲义为主,主要以公式推导与理解为主,引入和介绍省略.对于最后的Reinforcement Learning部分, 由于没有讲义以及对其实在不熟悉, 就没有笔记了(主要还是因为没有讲义).

现在在线学习用处还是挺广的,尤其是在现在大数据时代,每天都有非常多的数据产生.


与之前的batch learning算法不同的是,batch learning一定要先用训练集训练,在进行预测.但是online learning不一定有训练过程,可以一边预测一边训练,非常适合现在每天都产生很多数据的情况.

以感知器为例:
hθ(x)=g(θTx)

g(z)={11z0z<0

和LR类似,其实就是LR的简化版本
在线学习就是每次使用一个样本进行优化
原本的代价函数: θj:=θjα(hθ(x(i))y(i))x(i)j
而感知器的代价函数: θ:=θ+yx 其实就是在错误分类点时,加上或减去x

对于这个模型,他的误差也是有上界的,讲义中有详细证明.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值