TensorFlow2.0:常用数据范围压缩函数

本文介绍了TensorFlow2.0中四个常用的数据范围压缩函数:relu用于将负数置零;sigmoid将数据转换到[0,1]区间;tanh转换数据至[-1,1];softmax则用于将输出转化为概率分布,适合分类任务。" 112233911,9118790,JS获取浏览器版本号技巧,"['JavaScript', '前端开发', '浏览器检测']
摘要由CSDN通过智能技术生成

**

一 tf.nn.relu( )函数

**
tf.nn.relu( )激活函数可以将小于0的数据变成0,大于0的数据保持不变.
在这里插入图片描述

In [2]: a = tf.constant([-1,-2,0,1,2])                                                                                                                                                                      

In [3]: a                                                                                                                                                                                                   
Out[3]: <tf.Tensor: id=0, shape=(5,), dtype=int32, numpy=array([-1, -2,  0,  1,  2], dtype=int32)>

In [4]: tf.nn.relu(a)                                                                                                                                                                                       
Out[4]: 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值