Tensorflow 神经网络优化 关于损失函数 loss learning_rate softmax

这篇博客探讨了Tensorflow中神经网络的优化,重点介绍了损失函数如交叉熵(Cross Entropy)以及softmax函数在多分类问题中的应用。还讨论了学习率(learning_rate)的重要性,包括指数衰减学习率策略,以平衡模型收敛速度与稳定性。此外,文章提到了激活函数如relu、sigmoid和tanh在提升模型表达力中的作用。
摘要由CSDN通过智能技术生成

学习 Tensorflow实践

损失函数(loss)

Table of Contents

损失函数(loss)

一、激活函数 activation function

二、NN复杂度:多用NN层数和N参数的个数表示

NN优化目标:loss最小

交叉熵ce

softmax函数

学习率learning_rate:每次参数更新的幅度

指数衰减学习率


一、激活函数 activation function

引入激活函数,可以有效避免XW的纯线性组合,提高模型的表达力,使模型更有区分度

1、relu激活函数 用tf.nn.relu()表示

2、sigmoid激活函数 用tf.nn.sigmoid()表示

3、tanh激活函数 用tf.nn.tamh()表示

二、NN复杂度:多用NN层数和N参数的个数表示

计算神经网络层数时只计算有计算能力的层,所以不计算输入层

层数=隐藏层的层数+1个输出层

总参数=总W+总b

上图3*4+4  +  4*2+2=26

NN优化目标:loss最小

主流loss计算:

  • MSE(Mean Squared Error)均方误差
  • CE(Cross Entropy)交叉熵
  • 自定义

——————————————————————————————————————————

拟造数据集 X,Y_     X中有x1,x2    y_=x1+x2 噪声-0.05~0.05 拟合可以预测y的函数

import tensorflow as tf
import numpy as np
BATCH_SIZE = 8 #每次喂入神经网络的特征数量
seed=23455

rdm= np.random.R
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值