2-1 2-2 2-3 2-4 2-5 2-6 2-7: Model regression and Cost function

例:housing Price

监督学习:给出正确的答案

回归问题:预测出正确的结果


训练回归模型:

training set——算法——hypothesis


Cost:

目标函数——代价函数(平方误差代价函数——大多数回归问题):去最小化或最大化代价函数


问题设定:


图示:

1图


2图


3图


4图


算法利用程序去自动寻找“碗底”,使得损失函数J最小

随着参数增多,维度增大,图形无法表示。

学习率:即参数变化的速度


how?——Gradient Descent——have J,  want min J——可以用来最小化任何loss function


①设置各参数初始值;

②对各参数求偏导数;

③给定学习率,即参数值进行变化的步伐大小 Learning rate

④参数进行梯度下降(给定同一学习率,各参数梯度下降是同时进行的,同时更新参数)

⑤直到收敛,梯度下降结束


图解:



说明:

Learning rate:

太小:慢;太大:overshoot 碗底。

越接近碗底,虽然LR固定,但越来越慢,步伐越小,因为梯度在变小。



局部最优解问题:存在多个碗底,一般来说,致力于构造一个convex function(bowl function),即只有全局最优解的问题


Finally——Combined


# Batch Gradient Descent

梯度下降的每一步都会使用全部的训练样本。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值