吴恩达机器学习课程之参数拟合

参数拟合概念

拟合是指从训练数据学习目标函数,过拟合是指目标函数对训练数据的预测能力很强,但对测试数据预测能力很差,欠拟合是指目标函数对训练数据和测试数据的拟合程度都很差。

参数学习算法与非参数学习方法

参数学习方法是指目标函数在训练过程中参数是固定的,例如线性回归算法,而非参数学习方法是指目标函数在训练过程中参数是可变的,例如局部加权回归算法

局部加权回归算法

为了求出假设函数 h 在特定样本点x处得值
1. 线性回归算法: minθi(yiθTx)2 ,return θTx
2.局部加权回归算法: minθiwi(yiθTx)2
其中 wi 是权值,一般取 wi=exp((xix)22τ2) , τ 称为波长函数,用来控制权值下降速率。
wi={10xixxix
假设 yi=θTx+ξi ,其中 ξi 是误差项,一般取 ξi=12πσ2exp((ξi)22σ2)
那么有 p(yixi;θ)=12π2σexp((yiθTxi)22σ2) ,服从高斯分布 N(θTxi,σ2)

极大似然法

极大似然法就是选择参数 θ 使得样本出现的概率最大
假设 ξi 独立同分布,定义似然函数 L(θ)=p(yxi;θ)=ip(yixi;θ)
定义对数似然函数 ψ(θ) 如下:
ψ(θ)=logL(θ)=logip(yixi;θ)=i=1mlog12π2σexp((yiθTxi)22σ2)=mlog12π2σ+i=1m(yiθTxi)22σ2
最大化似然函数等价于最小化损失函数 J(θ)=mi=1(yiθTxi)22 ,最小二乘法实质上就是假设误差项服从独立同分布的高斯分布使得似然函数最大化

极大似然法用于二分类问题

假设 y{0,1} ,那么 hθ(x)[0,1]
选取 hθ(x)=g(θTx)=g(z)=11+ez g(z) 称为逻辑函数(S型函数)
p(y=1x;θ)=hθ(x) ,则 p(y=x;θ)=1hθ(x)
似然函数 L(θ)=p(yx;θ)=ip(yixi;θ)=hθ(x)yi(1hθ(x))1yi
对数似然函数 ψ(θ)=logL(θ)=mi=1(yilog(hθ(x))+(1yi)log(1hθ(x)))
那么可以将损失函数定义为: J(θ)=1mψ(θ) ,似然函数最大化就等价于损失函数最小化。
利用梯度上升法求最优解,即 θ=θ+αθψ(θ)
ψ(θ)θj=1mmi=1(yilog(hθ(xi))+(1yi)log(1hθ(xi))
=1mmi=1(yi1g(θTx)i(1yi)11g(θTxi))g(θTxi)θj
=1mmi=1(yi1g(θTxi)(1yi)11g(θTxi))g(θTxi)(1g(θTxi))θTxiθj    
=1mmi=1(yi(1g(θTxI))(1yi)g(θTxi))xij     
=1mmi=1(yig(θTx))xij=1mmi=1(hθ(xi)yi)xij
从(1)到(2)的过程用到以下公式:
f(x)=11+g(x)
f(x)x=1(1+eg(x))2eg(x)g(x)x
    =11+eg(x)eg(x)1+eg(x)g(x)x
    =f(x)(1f(x))g(x)x
所以有: θj=θj+α1mmi=1(yihθ(xi))xij

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值