深度学习(李宏毅)p3-p4笔记,Datawhale组队学习Task02

心得分享:
1、可以通过引入正则项(权重(w, weights)也加入到loss的计算中),来降低模型复杂度。其中偏置(b, bias)其实不用放入正则中,因为我们只想要更平滑的,b不会影响是否平滑;
2、通过梯度下降(GD, Gradient Descent)来调整参数,降低损失(loss);
3、多个参数就求对应的偏导;
4、目标值真实y hat, 平均值y bar;
5、If类的也可以通过线性模型来表示,比如通过δ(Δ, 丢他, 阶跃, 德尔塔, delta)实现类似的效果,是就是6,不是就是0;
7、Adam算法可以自动调整学习率,开始的时候大,结束的时候小;
8、高阶的模型包含低阶的模型,所以只用训练集时训练出的高阶模型损失总能小于等于低阶模型。但容易过拟合,这个时候就引入正则项;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值