Coursera ML笔记1-2

线性回归

单元线性回归

h(x)=ωx+b
h(x)=θ0x0+θ1x
(x0=1)

多元线性回归

h(x)=ωTx+b
h(x)=θ0x0+θ1x++θnxn=ni=0θixi=hθ(x) (x0=1)

广义线性模型

y=g1(ωT+b
g(*):联系函数

对数线性回归

ln(y)=ωTx+b

梯度下降法

梯度下降算法的实用技巧

  • feature scaling
    特征变量归一化,降低迭代次数
  • learning rate

J(θ)=12mi=1(hθ(x(i)y(i))2

梯度下降更新: θj=θjαtJ(θ)=θjα1m(hθ(x)y)xj

批梯度下降算法: θj=θjαtJ(θ)=θjα1mmi=0(hθ(x(i))y(i))x(i)j

判断梯度下降算法是否正常运行:
1.根据 minJ(θ) 的图像判断是否已经收敛
2.若 minJ(θ) 单调递增或者不单调,则learning rate α太大
3.若 minJ(θ) 的图像下降缓慢,则learning rate α太大或太小

标准方程法

θRn+1 J(θ0,θ1,,θm)=12mmi=1(hθ(x(i))y(i))2

J(θ)=12mmi=1(hθ(x(i)y(i))2=12m(Xθy)T(Xθy)

θjJ(θ)==o (for every j)

XTXθXTy=0

θ=(XTX)1XTyR(n+1)
n是特征变量的个数 m是训练集大小
xi=x(i)0x(i)1x(i)2x(i)nR(n+1)

X=(x1)T(x2)T(xm)TR(m(n+1))

y=y(1)y(2)y(m)R(m)

标准方程法和梯度下降法

梯度方程法标准下降法
需要选择α不需要选择α
需要多次迭代不需要迭代
当(n>>10000 )很大时,有效当(n>>10000) 很大时,速度慢
O(kn2) O(n3)

标准方程的不可逆性

XTX 是不可逆:

  1. redundant features/linely dependant
    -delete redundant features(two features are linely dependant,one of them are redundant)
  2. too many features(eg:m

多项式回归

h(x)=θ0size0+θ1size++θnsizen=ni=0θisizei=hθ(size) (size0=1)

向量化

确保参数同步变化

批梯度下降算法: θj=θjαmi=0(hθ(x(i))y(i))x(i)j
向量化: θ=θαδ
θRn+1
αR
δRn+1

δ=1mmi=1(hθ(x(i))y(i))x(i)j=0,1,,n+1

x=x(i)0x(i)1x(i)n+1R(n+1)

δ=δ0δ1δn+1R(n+1)

δj=1mmi=1(hθ(x(i))y(i))x(i)jj=0,1,,n+1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值