深度学习问题1-5

本文探讨了深度学习中常见的激活函数Sigmoid、Tanh和Relu及其导数,解释了为何不能将神经网络参数初始化为0,讨论了多层感知机表示异或逻辑所需的最少隐层数,以及Sigmoid和Tanh导致梯度消失的原因。同时,提到了多层感知机的均方误差和交叉熵损失函数在分类问题中的应用。
摘要由CSDN通过智能技术生成

1.写出常用的激活函数及其导数

参考链接:https://blog.csdn.net/colourful_sky/article/details/79164720

1.Sigmoid

Sigmoid又叫作 Logistic 激活函数,它将实数值压缩进 0 到 1 的区间内,还可以在预测概率的输出层中使用。该函数将大的负数转换成 0,将大的正数转换成 1。
Sigmod数学公式为:


10345471-8cc4272bc651b05f.png
image.png

Sigmod的导数公式为:


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值