Machine Learning---liner regression of one value

单变量线性回归

  • liner regression function:
    定义此假设函数为: h ( x ) = Θ 0 + Θ 1 ⋅ x h(x)=\Theta_0+\Theta_1\cdot x h(x)=Θ0+Θ1x简单的是用线性函数来拟合输入的数据集。其中 Θ 0 和 Θ 1 \Theta_0和\Theta_1 Θ0Θ1是需要求解出的两个参数。

  • cost function:
    定义此代价函数为: J ( Θ 0 , Θ 1 ) = 1 2 m ∑ i = 1 m ( h ( x i ) − y i ) 2 J(\Theta_0,\Theta_1)=\frac{1}{2m}\sum_{i=1}^{m}{(h(x^i)-y^i)^2} J(Θ0,Θ1)=2m1i=1m(h(xi)yi)2其中 x i 和 y i x^i 和y^i xiyi是数据集的输入输出,而 h ( x i ) h(x^i) h(xi)表示线性回归得到的估算值,这个代价函数有点类似于概率论中的平方差。。。

  • gradient descent:
    定义此梯度下降算法为: Θ j : = Θ j − α ⋅ ∂ ∂ Θ j J ( Θ o , Θ 1 ) \Theta_j:=\Theta_j-\alpha\cdot\frac{\partial }{\partial \Theta_j}J(\Theta_o,\Theta_1) Θj:=ΘjαΘjJ(Θo,Θ1) (for j=0 and j=1) %%% :=符号表示将式子右边赋值给左边。 α \alpha α表示学习速率(learning rate )。
    梯度下降同时更新 Θ 0 和 Θ 1 \Theta_0和\Theta_1 Θ0Θ1,最终找到偏微分项为零,得到 Θ 0 和 Θ 1 \Theta_0和\Theta_1 Θ0Θ1。更新时遵循“同时赋值,同时更新”

将代价函数和假设函数带回到梯度下降算法中,就能得到具体的 Θ 0 和 Θ 1 \Theta_0和\Theta_1 Θ0Θ1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值