深度学习知识点总结:深度学习常用公式总结

深度学习知识点总结

专栏链接:
深度学习知识点总结_Mr.小梅的博客-CSDN博客

本专栏主要总结深度学习中的知识点,从各大数据集比赛开始,介绍历年冠军算法;同时总结深度学习中重要的知识点,包括损失函数、优化器、各种经典算法、各种算法的优化策略Bag of Freebies (BoF)等。

本章介绍深度学习中的常用公式


目录

2.1 常用公式

2.1.1 卷积计算方式

2.1.2 常用导数计算公式

2.1.3 常用公式


2.1 常用公式

2.1.1 卷积计算方式

        bs:batchsize        in_c:输入通道        h/w:输入尺寸        k:卷积核数        p:padding        s:步长        out_c:输出通道

2.1.2 常用导数计算公式

2.1.3 常用公式

  • Sigmoid.

取值范围:(-∞,+∞),值域:(0,1)。属于激活函数。

计算one-hot中的二分类,可用于单标签二分类任务和多标签多分类任务中,模型预测的每个值指的是某个类别的概率,各个预测结果之间互不干扰。

例如某个模型输出:[[-0.3,0.1,0.6]],sigmoid计算后:[[0.4256, 0.5250, 0.6457]]

可以把sigmoid的计算结果看成是对某个类别的预测概率,值越趋近于1越说明属于该类别的概率大。

Sigmoid计算应用于BCELoss中。

  •  Softplus

 

取值范围:(-∞,+∞),值域:(0,+∞),属于激活函数。

  •  Softmax

取值范围:(-∞,+∞),值域:(0,1)。

也称之为归一化指数函数。一般用于单标签分类任务中,模型预测的结果中,只取预测结果最大的那一个,各个预测值之间相互影响,所有预测值相加为1。

例如某个模型输出:[[-0.3,0.1,0.6]],Softmax计算后:[[0.2020, 0.3013, 0.4967]]

预测的结果中哪个值大,代表属于该类别的概率大。

  •  LogSoftmax

 把公式展开计算如下,其中M为x中最大的值,具体如下:

  •  e^{x}

  • log(x) 

 

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值