Datawhale X 李宏毅苹果书 AI夏令营 入门2.0笔记

linear models

 model bias→更有弹性、有未知参数的function

这里要采用梯度下降的方法寻找最小loss,因为参数多

实际使用梯度下降的时候,会把 N 笔数据随机分成一个一个的批量(batch)

把所有的批量都看过一次,称为一个回合(epoch),每一次更新参数叫做一次更新。

1 epoch = see all the batches once

模型变形

activation function:

  • sigmoid
  • ReLU(更好)

Sigmoid 或 ReLU 称为神经元(neuron),很多的神经元称为神经网络(neural network)。

加更多层激活函数,让拟合、预测更好

许多层意味着深,机器学习就变成了深度学习(现在做到几百层)

但要谨慎overfiting(在看过的训练资料上表现好,但在没看过的资料上表现更差)

深比宽的好处在哪?

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值