20211103深度学习:Gradient Descent

1.learning rate

位置t+1 = 位置t - 学习率×梯度下降
在这里插入图片描述

在这里插入图片描述
通常learning rate是随参数update越来越小
learning ratet调整技巧:Adagrad

用过去所有gradient的均方根
在这里插入图片描述
在这里插入图片描述

2.Stochastic Grandient Decent

每看到一个example就update一次
在这里插入图片描述

3. Feature Sclaing

让不同feature的值范围一样
在这里插入图片描述
蓝色的feature范围差别太大为椭圆,需要不同的learning rate,比较麻烦
做Feature Sclaing的常见方法;
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值