深度学习中常见的激活函数与损失函数的选择与介绍

本文介绍了深度学习中常用的激活函数Sigmoid、Softmax、tanh和ReLU,讨论了它们的优缺点和适用场景。特别是ReLU,因其解决梯度消失问题和提升计算效率而在深层网络中广泛使用。
摘要由CSDN通过智能技术生成

当我们初学深度学习时,对于激活函数和损失函数的选择并不了解,这里提出一些建议,需要注意的是,这里给的是最后一层的激活函数

问题类型 最后一层激活函数 损失函数
二分类问题 sigmoid binary_crossentropy
多分类、单标签问题 softmax categorical_crossentropy
多分类、多标签问题 sigmoid binary_crossentropy
回归到任意值 mse
回归到 0~1 范围内的值 sigmoid mse 或 binary_crossentropy

sigmoid激活函数:

函数公式如下:
在这里插入图片描述
在这里插入图片描述
函数图像如下:
在这里插入图片描述

优点:

  1. Sigmoid的取值范围在(

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值