TensorFlow笔记五
++@Author:LF
@Date:2017-12-29++
昨天学习了常用的损失函数——soft回归结合交叉熵。主要针对回归类问题,后面其实看了一下预测类问题的常用损失函数——均方误差。其实其他都一样,只是损失函数的定义有所区别。这里给出均方误差的损失函数:
TensorFlow的实现代码:
Mse = tf.reduce_mean(tf.square(y_-y))
这里关于均方误差损失函数就不多看了,以后涉及到再看。
今天还看了一下自定义损失函数,其实核心都没有变,只是处理数据的函数表达式不同罢了,针对不同的问题使用不同的损失函数。
其实,今天还研究了一下简单神经网络的全部构造,理解一下其代码含义。这里先给出一段代码和背景(这里选取的是书上的简单实例)。
背景:预测商品销量问题
介绍:在预测商品销量时,准确预测是最理想目标,如果预测结果比实际结果大,则商家损失的是生产成本;如果预测结果比实际结果小,则商家损失的是利润。这里假设一个商品成本1元,利润是10元,那么少预测一个少挣10元,多预测一个少挣1元。由于多预测和少预测的损失利润不对等,这里面就会涉及到一个损失系数。这里先给出一个当预测多于真实值和少于真实值时候有不同损失系数的损失函数:
下面贴出python代码:
import tensorflow as tf
from numpy.random import RandomState
batch_size = 8
x = tf.placeholder(tf.float32, shape=(None, 2), name&#