机器学习
文章平均质量分 52
Jqlender
这个作者很懒,什么都没留下…
展开
-
sess.run(tf.global_variables_initializer()) 做了什么
当我们训练自己的神经网络的时候,都会加上一句sess.run(tf.global_variables_initializer()),官方解释是初始化模型参数。那么它到底做了些什么?global_variables_initializer 返回一个用来初始化 计算图中 所有global variable的 op。函数中调用了variable_initializer() 和 global_variables()global_variables() 返回一个 Variable list ,里面保存原创 2022-04-04 18:45:27 · 3543 阅读 · 0 评论 -
tf.control_dependencies()函数用法
在有些机器学习程序中我们想要指定某些操作执行的依赖关系,这时我们可以使用tf.control_dependencies()来实现。tf.control_dependencies(control_inputs)作用: 用来控制计算流图的,也就是给图中的某些计算指定顺序。有的时候我们想要指定某些操作执行的依赖关系,比如想要让参数先更新,然后再获取参数更新的值等。返回: 会返回一个控制依赖的上下文管理器,使用了with关键字就可以让在这个上下文环境中的操作都在control_inputs 执行理解意思:代原创 2022-04-03 19:26:59 · 1061 阅读 · 0 评论 -
tf.InteractiveSession()与tf.Session()
tf.InteractiveSession()tf.InteractiveSession():它能让你在运行图的时候,插入一些计算图,这些计算图是由某些操作(operations)构成的。这对于工作在交互式环境中的人们来说非常便利,比如使用IPython。tf.InteractiveSession()是一种交互式的session方式,它让自己成为了默认的session,也就是说用户在不需要指明用哪个session运行的情况下,就可以运行起来,这就是默认的好处。这样的话就是run()和eval()函数可以原创 2022-02-22 16:18:22 · 1416 阅读 · 0 评论 -
tf.ConfigProto()详解
tf.ConfigProto()主要的作用是配置tf.Session的运算方式,比如gpu运算或者cpu运算参数:参数作用log_device_placement是否打印设备分配日志inter_op_parallelism_threads设置线程一个操作内部并行运算的线程数,比如矩阵乘法,如果设置为0,则表示以最优的线程数处理intra_op_parallelism_threads设置多个操作并行运算的线程数,比如 c = a + b,d = e + f . 可以并原创 2022-02-21 16:41:30 · 7333 阅读 · 0 评论 -
tf.concat()详解
tensorflow中用来拼接张量的函数tf.concat(),用法:tf.concat([tensor1, tensor2, tensor3,...], axis) t1 = [[1, 2, 3], [4, 5, 6]] t2 = [[7, 8, 9], [10, 11, 12]] t3 = tf.concat([t1, t2], 0) # [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]] t4 = tf.concat([t1, t2],原创 2022-02-21 14:31:12 · 1158 阅读 · 0 评论 -
sess.run()详解
TensorFlow与我们正常的编程思维略有不同:先预定义一些操作/占位符构建graph,所有的操作op和变量都视为节点,TensorFlow中的语句不会立即执行;当构建完graph图后,需要在一个session会话中启动图,启动的第一步是创建一个Session对象。等到开启会话session的时候,才会执行session.run()中的语句。在执行session.run()时,tensorflow并不是计算了整个图,只是计算了与想要fetch的值相关的部分。创建session对象tf.com原创 2022-01-26 18:37:31 · 16101 阅读 · 2 评论 -
tensorflow函数方法
tf.where(condition,x=None,y=None,name=None)作用:该函数的作用是根据condition,返回相对应的x或y,返回值是一个tf.bool类型的Tensor。若condition=True,则返回对应X的值,False则返回对应的Y值。import tensorflow as tfsess=tf.Session()A =tf.where(False,123,321)print(sess.run(A)) #321B=tf.where(True,123,32原创 2022-01-19 10:40:33 · 166 阅读 · 0 评论 -
tf.control_dependencies()控制计算流图
tf.control_dependencies(control_inputs)作用: 用来控制计算流图的,也就是给图中的某些计算指定顺序。例如节点B要读取模型参数值V更新后的值,而节点A负责更新参数V,所以节点B就要等节点A执行完成后再执行,不然读到的就是更新以前的数据。这时候就需要个运算控制器tf.control_dependencies。返回 一个控制依赖的上下文管理器,只有在 control_inputs被执行以后,上下文管理器中的操作才会被执行with tf.control_dependen原创 2021-07-30 18:13:30 · 86 阅读 · 0 评论 -
reduce_sum()中的reduction_indices
tf.reduce_sum函数中reduction_indices参数表示函数的处理维度。reduction_indices参数的值默认的时候为None,默认把所有的数据求和,即结果是一维的。reduction_indices参数的值为0的时候,是第0维对应位置相加,[行1+行2+…+行n]。reduction_indices参数的值为1的时候,是第1维对应位置相加, [行1相加之和,行2相加之和,…,行n相加之和]。reduction_indices参数的值为2的时候,是第2维对应位置相加,[[原创 2021-07-30 15:47:17 · 214 阅读 · 0 评论 -
tf.log()详解
tf.log(y) 计算元素 y 的自然对, y=ex计算出x返回一个张量,与 y 具有相同的类型.tensor = tf.constant([[1.0,2.0,3.0],[1.0,2.0,3.0]], dtype=tf.float32)tensor_log = tf.log(tensor)sess = tf.InteractiveSession()print(sess.run(tensor)) #[[1. 2. 3.] [1. 2. 3.]]print(sess.run(tensor_log原创 2021-07-29 18:43:59 · 4954 阅读 · 1 评论 -
tf.nn.softmax参数详解以及作用
tf.nn.softmax参数详解以及作用tf.nn.softmax(logits,axis=None,name=None,dim=None)logits:一个非空的Tensor。必须是下列类型之一:half, float32,float64axis:将在其上执行维度softmax。默认值为-1,表示最后一个维度name:操作的名称(可选)dim:axis的已弃用的别名返回:一个Tensor,与logits具有相同的类型和shape通过Softmax回归,将logistic的预测二分类的概率的原创 2021-07-29 17:16:59 · 7778 阅读 · 1 评论 -
详解tf.nn.dropout
tensoflow中有两个dropout函数容易混淆tf.nn.dropout 中参数 keep_prob :每一个元素被保存下的概率。tf.layer.dropout 中参数 rate :每一个元素丢弃的概率。keep_prob = 1 - ratetf.layers.drop函数定义如下:tf.layers.dropout(inputs,rate=0.5,noise_shape=None,seed=None,training=False,name=None)在 tf.layer.drop原创 2021-07-29 10:59:53 · 845 阅读 · 0 评论 -
正则化的作用以及L1和L2正则化的区别
转载地址https://blog.csdn.net/liuweiyuxiang/article/details/99984288原创 2021-07-28 16:45:07 · 1247 阅读 · 0 评论