吴恩达机器学习学习笔记 --- 单变量线性回归

(1)符号定义 

【m:样本数量   n:特征数量】

(2)代价函数

【对于大多数线性回归问题,代价函数都会选择均值误差函数】

【举例:单参数】

【每一组参数带入损失函数都会得到一个值,在这些值中选取一个最小值,得到这个最小值的那组参数,就是所需的参数】

【举例:双变量】

 

 (3)梯度下降法

【参数初始化为0,随机的数都可以】

 【伪代码】 // theta同时更新

【直观理解】

往最低点的方向踏一步

(4)学习速率过大 / 过小 

学习速率过小:学习速度过慢,想要花费很多时间

学习速率过大:可能会越过最小值

【有可能会陷入局部最小值出不了(导数降为0了,无法更新参数的值)】

【原本会自动降低更新幅度,所以不用减少学习速率的值】 

 

(5)线性回归中的梯度下降

 【推导过程】

 【伪代码】

 【线性回归中的损失函数一般只有全局最优解,没有局部最优解】

 【“Batch" Gradient Descent :计算所有样本的误差】

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值