第二讲-神经网络优化-损失函数

本文探讨了神经网络中的损失函数,包括均方误差、自定义损失函数和交叉熵。均方误差用于衡量预测与实际值的差距,但可能不适用于成本与利润不等的情况。自定义损失函数允许根据业务需求调整权重。交叉熵则衡量两个概率分布的接近程度,常用于二分类问题。通过示例代码解释了如何在TensorFlow中实现这些损失函数。
摘要由CSDN通过智能技术生成

5、损失函数

损失函数是前向传播计算出的结果y与已知标准答案y_的差距。神经网络的优化目标,找出参数使得loss值最小。

本次介绍损失函数有:均方误差(mse,Mean Squared Error)、自定义、交叉熵(ce,Cross Entropy)

  • 均方误差( y_表示标准答案,y表示预测答案计算值)

                               

        tensorFlow : lose_mse =tf.reduce_mean(tf.square(y-y))

示例:预测酸奶日销量y,x1,x2是影响因素。建模前,应预先采集数据:每日x1,x2和销量y_。拟造数据集X,Y_:y_=x1+x2  噪声:-0.05~+0.05.

代码:

import tensorflow as tf
import numpy as np
SEED = 23455

rdm = np.random.RandomState(seed=SEED)      # 生成[0,1)之间的随机数
x = rdm.rand(32,2)     # 随机制造训练数据x和 y_
y_ = [[x1 + x2 + (rdm.rand()/10.0-0.05)] for (x1,x2) in x]    # 生成噪声[0,1)/10=[0,0.1); [0,0.1)-0.05=[-0.05,0.05)
x =
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值