数学与统计学习: 指数衰减应用(指数分布&对数分布)

1、应用背景:

实际业务场景,我们会遇到一些特征随着时间(量)的变大,实际值的意义成指数衰减或增加。例如:

  • 用户收到的邮件越多,每封邮件对用户的影响越小,因此计算每封邮件的价值时,我们不能等同计算,需要做一种衰减处理。
  • 用户邮件缺失度:我们期期望收件越少用户确实度越大,当收件量大到一定程度时,邮件缺失度不变。

2、常见的应用函数

  • 指数函数:y=a^x

这里写图片描述
这里写图片描述

  • 对数函数:y=log(x)

这里写图片描述
这里写图片描述

3.实际应用案例:

计算用户邮件缺失度: 根据当天收件量,计算用户当天邮件缺失度。

1)计算当天所有活跃用户平均收件u
2)当用户当天收件量=u时,设用户邮件缺失度为0.6.
3)定义衰减函数: y=exp(-aX),其中X为用户当天截止目前收件量,a为变化幅度。
4)根据:exp(-aX)=exp(-au)=0.6, 计算出a值。
5)然后利用y=exp(-aX),计算所有用户的邮件缺失度。

具体如下:
这里写图片描述

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在PyTorch中,学习指数衰减是一种常用的学习率调整策略之一。学习指数衰减通过逐步减小学习率的大小来优化模型的收敛速度和性能。参数大小是指在实际应用中常用的参数的大小。 学习指数衰减的常用参数大小包括初始学习率、衰减率和衰减步数。初始学习率是训练开始时的初始学习率大小,它决定了模型在初始阶段的更新步长。通常情况下,较大的初始学习率能够加快模型的收敛速度,但容易导致震荡和不稳定的情况。因此,一般会根据具体问题的需求和模型的复杂度来选择初始学习率的大小。 衰减率决定了学习率在每一次衰减步骤中的减小幅度。较小的衰减率会使学习率减小得更缓慢,而较大的衰减率会加速学习率的减小速度。衰减率的选择要基于具体问题的需要,一般情况下,可以通过尝试不同的衰减率来找到一个合适的值。 衰减步数是指学习衰减的步数或次数。学习率会随着训练的进行逐步减小,每经过一定步数或次数,学习率就会衰减一次。衰减步数的选择应根据训练集的大小、模型的复杂性和收敛速度等因素来确定。较小的衰减步数会使学习衰减得更快,而较大的衰减步数会使学习率下降得更缓慢。在实际应用中,可以通过试验和调整来找到一个适合的衰减步数。 总之,PyTorch学习指数衰减的常用参数大小包括初始学习率、衰减率和衰减步数。这些参数的选择要基于具体问题的需求和模型的复杂度,需要进行实验和调整来找到合适的值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值