3D机器学习(5):6种激活函数、基于均方差的梯度下降法

1.三种激活函数torch.sigmoi=F.sigmoidtorch.tannh=F.tanhtorch.relu=Frelu2.典型的loss函数:mean squire errorMSE=mean squire error=均方差:∑(y-y预测 )^2,这里norm会开根号,所以需要平方回去。F.mse_loss(y,y预测)函数可建立此类loss函数。当需要求导...
摘要由CSDN通过智能技术生成

1.6种激活函数

  • torch.sigmoi=F.sigmoid

    函数
  • torch.tannh=F.tanh,仅仅是是sigmoid函数的拉伸与平移

    在这里插入图片描述
  • torch.relu=F.relu,不会出现梯度爆炸或梯度弥散,而且梯度更简洁。

    在这里插入图片描述
  • leaky relu是relu的变体,解决了在负值情况下梯度为0的问题,因为其在(-无穷,0)加入了一个很小的斜率,比如斜率为0.02。
    在这里插入图片描述
  • softplus在relu函数0点处做了平滑处理,使得relu函数处处可导。
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值