【Pytorch】2. 激活函数

激活函数

梯度下降需要注意的地方就是把离散型的也改成连续型的,因为误差函数必须是可微分的。因为如果是离散型,有可能不管从哪个方向下降,梯度值都是一样的,不存在最大的梯度的方向。

在这里插入图片描述

而从连续性变成离散型,我们可以将激活函数从左侧的阶跃函数,变成右边的sigmoid函数

在这里插入图片描述
在这里插入图片描述

sigmoid函数可以将整个平面变成一个概率平面,如图所示,经过了sigmoid function之后,平面上的点落在某个地方就可以知道这一点预测为蓝色或者红色区域的概率了

在这里插入图片描述

然后感知机也发生了变化,原先我们说这个学生会不会被录取,现在我们说这个学会被录取的概率是多少

在这里插入图片描述

softmax函数

假如我们不是进行二分类,而是多分类,那么用什么函数呢?就是softmax函数,因为softmax函数有以下好处:

  1. 可以将所有的数字,哪怕输入的是负数,也变成正的,可以用来表示概率。
  2. 他们加起来等于1。
  3. 本身值大的经过softmax之后值也大。

softmax函数公式:
在这里插入图片描述

代码:

import numpy as np

def softmax(L):
    expL = np.exp(L)
    sumExpL = sum(expL)
    result = []
    for i in expL:
        result.append(i*1.0/sumExpL)
    return result
    
    # Note: The function np.divide can also be used here, as follows:
    # def softmax(L):
    #     expL = np.exp(L)
    #     return np.divide (expL, expL.sum())

全部笔记请关注微信公众号【阿肉爱学习】,在菜单栏点击“利其器”,并选择“pytorch”查看
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值