Andrew Ng机器学习课程笔记(三)之监督学习之Newton's Method

Preface

主要内容:
Newton’s Method(牛顿法)

Newton’s Method

step 1 :问题导入

现需要对函数 f(θ) f ( θ ) ,找到一个合适的 θ θ 使得 f(θ)=0 f ( θ ) = 0

step 2:迭代

牛顿法搜索动态示例图:
https://www.cnblogs.com/shixiangwan/p/7532830.html
根据导数定义:
这里写图片描述

f(θ(0))=f(θ(0))ΔΔ=f(θ(0))f(θ(0))θ(0)θ(1)=f(θ(0))f(θ(0))θ(1)=θ(0)f(θ(0))f(θ(0))θ(t+1)=θ(t)f(θ(0))f(θ(0))(1)(2)(3)(4)(5) (1) f ′ ( θ ( 0 ) ) = f ( θ ( 0 ) ) Δ (2) Δ = f ( θ ( 0 ) ) f ′ ( θ ( 0 ) ) (3) θ ( 0 ) − θ ( 1 ) = f ( θ ( 0 ) ) f ′ ( θ ( 0 ) ) (4) θ ( 1 ) = θ ( 0 ) − f ( θ ( 0 ) ) f ′ ( θ ( 0 ) ) (5) 即 , θ ( t + 1 ) = θ ( t ) − f ( θ ( 0 ) ) f ′ ( θ ( 0 ) )

注: f(θ) f ( θ ) 的初始值对函数无影响, θ(0) θ ( 0 ) 表示 θ=0 θ = 0

step 3:求最大似然函数

回顾上一篇文章Andrew Ng机器学习课程笔记(二)之监督学习之Linear Regression and Logistic regression 中使用梯度法求最大似然函数,在这里我们将使用牛顿法来求最大似然函数。

牛顿的方法提供了一种方式去 f(θ)=0 f ( θ ) = 0 。如果我们想使用它的一些功能使得似然函数 (θ) ℓ ( θ ) 最大化?
(θ) ℓ ( θ ) 极大值对应的点,其一阶导数 (θ) ℓ ′ ( θ ) 为零。所以,让 f(θ)=(θ) f ( θ ) = ℓ ′ ( θ ) ,我们可以使用相同的算法来最大化 (θ) ℓ ( θ )

显然,这里 θ θ 的更新规则已经变成了,

θ(t+1)=θ(t)(θ)′′(θ)(6) (6) θ ( t + 1 ) = θ ( t ) − ℓ ′ ( θ ) ℓ ″ ( θ )

step 4:多维特征推广

θ θ 为一个大于一维的向量时,我们得到的迭代规则为:

θ(t+1)=θ(t)H1θ(θ)(7) (7) θ ( t + 1 ) = θ ( t ) − H − 1 ∇ θ ℓ ( θ )

其中 H H 为Hessian矩阵:
(8)Hij=2(θ)θiθj

参考文献

https://www.cnblogs.com/shixiangwan/p/7532830.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值