Tensorflow详解(五)

激活函数(Activation Function):——实现去线性化

1. nn.relu(features,name)

2. nn.relu6(features,name)

3. nn.softplus(features,name)

4. nn.droupt(x,keep_prob,noise_shape,seed,name)

5. nn.bias_add(value,bias,name)

6. nn.sigmoid(x,name)

7. nn.tanh(x,name)

损失函数(Loss Function)/代价函数(Cost Function)

1.交叉熵损失函数

1.1 描述概率分布(一)softmax回归——nn.softmax(logits,dim,name)

                           (二) sigmoid函数——对二分类问题是一个天然比较好的函数,但会在输入值非常小/非常大时产生饱和,                                               这两种情况下函数的梯度值非常小,基于梯度的优化比较困难,所以,一般在通过sigmoid函数得

                                        到概率值之后还要对这个概率值求解释然函数,通过最大释然的方法训练sigmoid分类器                                                           

1.2 Tensorflow没有封装单独的交叉熵计算函数——cross_entropy=-tf.reduce_mean(y_*tf.log(tf.clip_by_value(y,1e-10,1.0)))

    但提供了对计算softmax回归和交叉熵的统一封装

   nn.softmax_cross_entropy_with_logits(_sentinel,labels,logits,dim,name)

   nn.sparse_softmax_cross_entropy_with_logits(_sentinel,labels,logits,name)#更适合于只有一个正确答案的分类问题

2.均方差损失函数——经常用于回归问题,此时网络只需要一个输出节点

3.自定义损失函数

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值