深度学习基本概念softmax、sigmoid、均方误差、交叉熵

本文探讨了深度学习中常用的激活函数softmax和sigmoid,解释了它们在多分类和多标签问题中的应用。此外,还提到了线性回归的均方误差损失函数和逻辑回归的交叉熵损失函数,并提供了TensorFlow的实现示例。
摘要由CSDN通过智能技术生成

    在神经网络的最后一层总用到的激活函数为softmax和sigmoid。 在经过以上 激活函数后,线性回归选用均方误差为损失函数,逻辑回归选择交叉熵为损失函数。以下代码使用tensorflow实现。

  softmax激活函数:用在多分类,一个输入只能有一个输出,输出标签独立(onehot类型标签,只有一个为1,其他都是0)),如猫狗大战一张图像,识别结果非猫即狗。


Yn=\frac{e^{n}}{\sum_{i}^{k} e^{i}}

tensorflow 实现 tf.nn.sigmoid(logits),自己定义实现如下
def Sigmoid_( logits ):
    date = tf.cast(logits,tf.int32)
    result = []
    with tf.Session() as sess:
        date = sess.run(date)
        for i in date:
            sig = round(1/(1+math.exp(-i)),6 )
            result.append(sig)
    return result

 sigmoid激活函数:用在多标签,即输入一张图像,可以同时多标签种类为1,如一张图像即有猫又有狗标签中含有两个1.

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值