Tensorflow中常用函数以及常见名词定义讲解

本文详细介绍了Tensorflow中的几个重要函数,包括tf.nn.softmax_cross_entropy_with_logits()的交叉熵计算,tf.arg_max()获取最大值索引,tf.equal()判断相等,tf.cast()类型转换,以及tf.reduce_*系列的降维函数。此外,还解释了Tensorflow中的变量管理,如tf.Variable()、tf.get_variable()、tf.name_scope()和tf.variable_scope()。文章最后讨论了Tensorflow中batch的概念。
摘要由CSDN通过智能技术生成

Tensorflow详解

Tensorflow官方文档:https://www.w3cschool.cn/tensorflow_python/

目录

Tensorflow详解

一.Tensorflow中常用函数讲解

1. tf.nn.softmax_cross_entropy_with_logits() 交叉熵

2. tf.arg_max()函数

3. tf.equal()函数

4. tf.cast()函数

5. tf.reduce_*类降维函数讲解

(1)tf.reduce_mean()函数

(2)tf.reduce_sum()函数

(3)tf.reduce_min()函数

(4)tf.reduce_max()函数

(5)tf.reduce_all()函数

(6)tf.reduce_any()函数

(7)tf.reduce_logsumexp()函数

(8)tf.reduce_prod()函数

二.Tensorflow中常见名词定义

1. tensorflow中batch的含义


一.Tensorflow中常用函数讲解

1. tf.nn.softmax_cross_entropy_with_logits() 交叉熵

在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,

首先明确一点,loss是代价值,也就是我们要最小化的值

定义:tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)

参数:
除去name参数用以指定该操作的name,与方法有关的一共两个参数:

  • logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[batch_size,num_classes],单样本的话,大小就是num_classes
  • labels:实际的标签,大小同上
  • name: 用以指定该操作的name;

具体的执行流程大概分为两步:

第一步是先对网络最后一层的输出做一个softmax,这一步通常是求取输出属于某一类的概率,对于单样本而言,输出就是一个num_classes大小的向量([Y1,Y2,Y3...]其中Y1,Y2,Y3...分别代表了是属于该类的概率)

softmax的公式是:

至于为什么是用的这个公式?这里不介绍了,涉及到比较多的理论证明

第二步是softmax的输出向量[Y1,Y2,Y3...]和样本的实际标签做一个交叉熵,公式如下:

其中指代实际的标签中第i个的值(用mnist数据举例,如果是3,那么标签是[0,0,0,1,0,0,0,0,0,0],除了第4个值为1,其他全为0)

就是softmax的输出向量[Y1,Y2,Y3...]中,第i个元素的值

显而易见,预测越准确,结果的值越小(别忘了前面还有负号),最后求一个平均,得到我们想要的loss

注意!!!这个函数的返回值并不是一个数,而是一个向量,如果要求交叉熵,我们要再做一步tf.reduce_sum操作,就是对向量里面所有元素求和,最后才得到,如果求loss,则要做一步tf.reduce_mean操作,对向量求均值!
--------------------- 
原文:https://blog.csdn.net/mao_xiao_feng/article/details/53382790 

2. tf.arg_max()函数

定义为: def arg_max(input, dimension, name=None)       

作用是取行或者列的最大值的位置(即返回最大的那个数值所在的下标)。

  • input:类型为 float32, float64, int64, int32, uint8, uint16, int16, int8, complex64, complex128, qint8, quint8, qint32, half的tensor
  • dimension:必须为int32, int64. int32,取值为0或1, 当dimension=1时返回每列最大值的下标,当dimension=0时返回每行最大值的下标。
  • name:名字
  • returns:返回一个tensor

3. tf.equal()函数

tf.equal(A,B)是对比这两个矩阵或者向量的相等的元素,如果是相等的那就返回True,反正返回False,

return: 返回的值的矩阵维度和A是一样的。

例:

A = [[1,3,4,5,6]]  
B = [[1,3,4,3,2]]
with tf.Session() as sess:  
    print(sess.run(tf.equal(A, B)))
    
结果:[[ True  True  True False False]]

4. tf.cast()函数

tf.cast(x, dtype)将x的数据格式转化成dtype

例: 

a = tf.Variable([1,0,0,1,1])
b = tf.cast(a,dtype=tf.bool)
sess = tf.Session()
sess.run(tf.global_variables_initializer())
print(sess.run(b))
 
[ True False False  True  True]

5. tf.reduce_*类降维函数讲解

(1)tf.reduce_mean()函数

tf.reduce_mean 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,主要用作降维或者计算tensor(图像)的平均值。

定义:reduce_mean(input_tensor, axis=None, keep_dims=False, name=None)

参数:

  • input_tensor: 输入的待降维的tensor;
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值