Tensorflow tf.nn模块分析

本文详细分析了Tensorflow中的激活函数,包括sigmoid、tanh、ReLU及其变种,以及它们的优缺点。此外,介绍了卷积操作的不同形式,如conv2d、depthwise_conv2d和separable_conv2d,并探讨了池化、数学形态学操作和归一化的概念。同时,讨论了损失函数在分类问题中的应用和softmax函数的使用。
摘要由CSDN通过智能技术生成


#1. 激活函数
##1.1 平滑非线性


sigmoid:
f ( x ) = − 1 1 + e − x f(x)=\frac{-1}{1+e^{-x}} f(x)=1+ex1

优点 缺点
Sigmoid函数的输出映射在(0,1)(0,1)之间,单调连续,输出范围有限,优化稳定,可以用作输出层 由于其软饱和性,容易产生梯度消失,导致训练出现问题
求导容易 其输出并不是以0为中心的。

tanh
t a n h ( x ) = 1 − e − 2 x 1 + e − 2 x tanh(x)=\frac{1-e^{-2x}}{1+e^{-2x}} tanh(x)=1+e2x1e

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值