机器学习(5)之牛顿算法

机器学习(5)之牛顿算法

1. 牛顿迭代算法简介



 

牛顿方法应用于机器学习:

 

 
 
 
 
 
 
 
 
 
 
1. 使用这个方法需要f满足一定条件,适用于Logistic回归和广义线性模型

2. 一般初始化为0

2. 在Logistic的应用

    在Logistic回归中,我们要使得对数最大似然值最大,即为0时的Θ,根据上述推论,更新规则如下: 

    

   牛顿方法的收敛速度:二次收敛

   每次迭代使解的有效数字的数目加倍:假设当前误差是0.01,一次迭代后,误差为0.001,再一次迭代,误差为0.0000001。该性质当解距离最优质的足够近才会发现。

3. 牛顿方法的一般化

Θ是一个向量而不是一个数字,一般化的公式为:

 

是目标函数的梯度,H为Hessian矩阵,规模是n*n,n为特征的数量,它的每个元素表示一个二阶导数:

 

上述公式的意义就是,用一个一阶导数的向量乘以一个二阶导数矩阵的逆

优点:若特征数和样本数合理,牛顿方法的迭代次数比梯度上升要少得多

缺点:每次迭代都要重新计算Hessian矩阵,如果特征很多,则H矩阵计算代价很大

 

 

 

 

 

转载请注明地址http://www.cnblogs.com/rcfeng/
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值