2019/04/08

numpy.random.RandomState()函数用法

原文:https://blog.csdn.net/yawdeep/article/details/78827088 

可通过用Numpy工具包生成模拟数据集

使用RandomState获得随机数生成器

from numpy.random import RandomState
 
rdm = RandomState(1)
 

#1为随机种子,只要随机种子seed相同,产生的随机数序列就相同

a = rdm.uniform(1,2,(3,4))
print(a)
结果为:

[[ 1.417022    1.72032449  1.00011437  1.30233257]
 [ 1.14675589  1.09233859  1.18626021  1.34556073]
 [ 1.39676747  1.53881673  1.41919451  1.6852195 ]]
 

产生一个3行4列的数组,其中每个元素都是在[1,2]区间内均匀分布的随机数

值域范围 tf.clip_by_value的用法

tf.clip_by_value(A, min, max):输入一个张量A,把A中的每一个元素的值都压缩在min和max之间。小于min的让它等于min,大于max的元素的值等于max。

import tensorflow as tf  
import numpy as np  
  
A = np.array([[1,1,2,4], [3,4,8,5]])  
  
with tf.Session() as sess:  
      print sess.run(tf.clip_by_value(A, 2, 5))  

输出:

[[2 2 2 4]
 [3 4 5 5]]


原文:https://blog.csdn.net/jacke121/article/details/77747798 

tf.train中的Optimizer相关的函数与功能介绍

原文:https://blog.csdn.net/shenxiaoming77/article/details/77169756

本文所讲的内容主要为以下列表中相关函数。函数training()通过梯度下降法为最小化损失函数增加了相关的优化操作,在训练过程中,先实例化一个优化函数,比如 tf.train.GradientDescentOptimizer,并基于一定的学习率进行梯度优化训练:

optimizer = tf.train.GradientDescentOptimizer(learning_rate)

然后,可以设置 一个用于记录全局训练步骤的单值。以及使用minimize()操作,该操作不仅可以优化更新训练的模型参数,也可以为全局步骤(global step)计数。与其他tensorflow操作类似,这些训练操作都需要在tf.session会话中进行

global_step = tf.Variable(0, name='global_step', trainable=False)
train_op = optimizer.minimize(loss, global_step=global_step)

 


 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值