机器学习——线性回归/逻辑回归/神经网络-Octave

一、线性回归(一元)

h θ ( x ) = θ T x = θ 0 + θ 1 x h_{\theta}(x) = \theta^Tx = \theta_0 + \theta_1x hθ(x)=θTx=θ0+θ1x
截距 θ 0 \theta_0 θ0 和斜率 θ 1 \theta_1 θ1 决定一条直线。

1. 成本函数

线性回归的损失函数采用最小二乘法:以估计值与观测值的平方和作为成本函数
J ( θ 0 , θ 1 ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(\theta_0,\theta1) = \frac{1}{2m}\sum^m_{i = 1}(h_{\theta}(x^{(i)})-y^{(i)})^2 J(θ0,θ1)=2m1i=1m(hθ(x(i))y(i))2
目标是找到使成本函数最小的 Θ \Theta Θ

2. 最小化成本函数
2.1 梯度下降算法

θ j : = θ j − α ∂ ∂ θ j J ( θ 0 , θ 1 ) , j = 0 , 1 \theta_j := \theta_j - \alpha \frac{\partial}{\partial\theta_j}J(\theta_0,\theta1) , j = 0,1 θj:=θjαθjJ(θ0,θ1)j=0,1
其中 J J J为成本函数; α \alpha α 为学习率。

2.2 多变量梯度下降

θ j : = θ j − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x j ( i ) , j : = 0 … n , x 0 ( i ) = 1 \theta_j := \theta_j - \alpha\frac{1}{m}\sum^m_{i = 1}(h_{\theta}(x^{(i)})-y^{(i)})x^{(i)}_j ,j:=0…n, x^{(i)}_0 = 1 θj:=θjαm1i=1m(hθ(x(i))y(i))xj(i),j:=0n,x0(i)=1

2.3 正态方程(不适合特征太多的情况)

θ = ( X T X ) − 1 X T y \theta = (X^TX)^{-1}X^Ty θ=(XTX)1XTy
前提: X T X X^TX XTX 可逆;
不可逆的情况:特征过多 ( m ≤ n m \leq n mn) 或者存在冗余要素(变量之间存在线性相关)。

二、逻辑回归 (Logistic Regression)

g ( z ) = 1 1 + e − z ,    z = θ T x   , h θ ( x ) = g ( θ T x ) g(z) = \frac{1}{1+e^{-z}},\ \ z = \theta^Tx \ ,h_{\theta}(x) = g(\theta^Tx) g(z)=1+ez1,  z=θTx ,hθ(x)=g(θTx)
其中 h θ ( x ) h_{\theta}(x) hθ(x) 计算输出为1的概率。
在这里插入图片描述

1. 成本函数
  • 如果采用类似线性函数的误差平方和表示成本函数:
    J ( θ 0 , θ 1 ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 = 1 2 m ∑ i = 1 m ( 1 1 + e − Θ T x ( i )
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值