tsr的操作



#1 import data
#2 归一化  
# data =  tf.nn.batch_norm_with_global_normalization

# hyper para
# learning_rate = 0.01
# batch_size = 100
# iterations =1000

# 变量  (节点、权重) 占位符(输入输出数据)
# tf.constant
# tf.variables
# tf.placeholder(tf.float32,[None,input_size/num_classes])


#结构模型  y_pred = tf.add(tf.mul())  你和公式

# loss function  
# loss = tf.reduce_mean(tf.square(y_actual - y_pred))


import tensorflow as tf
sess = tf.Session()
#导入tf 开启会话
#   ? tf.zeros
zero_tsr = tf.zeros([3,4])
print(zero_tsr,"\n")
print(sess.run(zero_tsr)) 


Tensor("zeros_9:0", shape=(3, 4), dtype=float32) 

[[0. 0. 0. 0.]
 [0. 0. 0. 0.]
 [0. 0. 0. 0.]]
ones_tsr = tf.ones([3,3])
print(ones_tsr,"\n")
print(sess.run(ones_tsr))
Tensor("ones_2:0", shape=(3, 3), dtype=float32) 

[[1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]]
filled_tsr = tf.fill([2,3],9)
print(filled_tsr,"\n")
print(sess.run(filled_tsr))
#? tf.fill
Tensor("Fill_1:0", shape=(2, 3), dtype=int32) 

[[9 9 9]
 [9 9 9]]
constant_tsr = tf.constant([[[1,2,3],[4,5,6]]])
#多加一个 【】  ,代表多一个维度  shape=(1, 2, 3)
#相当于构建矩阵
print(constant_tsr,"\n")
print(sess.run(constant_tsr))                         
                            
Tensor("Const_6:0", shape=(1, 2, 3), dtype=int32) 

[[[1 2 3]
  [4 5 6]]]
#构建相似  矩阵, 这个有利于  权重赋值
#Tensor("Const_0:0", shape=(1, 2, 3), dtype=int32) 
zeros_similar = tf.zeros_like(constant_tsr,name="zeros_similar")
print(zeros_similar,"\n")
print(sess.run(zeros_similar))  

Tensor("zeros_similar:0", shape=(1, 2, 3), dtype=int32) 

[[[0 0 0]
  [0 0 0]]]


#序列张量 tsr  
#间隔插值 linspace
linear_tsr = tf.linspace(0.0,1,3)
print(linear_tsr,"\n")
print(sess.run(linear_tsr))  
#range 递增数列

integer_seq_tsr = tf.range(6,15,3)
print(integer_seq_tsr,"\n")
print(sess.run(integer_seq_tsr))  
Tensor("LinSpace_6:0", shape=(3,), dtype=float32) 

[0.  0.5 1. ]
Tensor("range:0", shape=(3,), dtype=int32) 

[ 6  9 12]
#随机张量 random

# tf.random_uniform  随机均匀分布
randunif_tsr = tf.random_uniform([3,5],0,1)
print(randunif_tsr,"\n")
print(sess.run(randunif_tsr))  

# tf.random_normal  正态分布
# tf.truncated_normal 截取边界
#  tf.random_shuffle  tf.random_crop  大小裁剪
Tensor("random_uniform_1:0", shape=(3, 5), dtype=float32) 

[[4.2316258e-01 3.0471754e-01 7.6630473e-01 8.1790626e-01 5.0046563e-01]
 [6.5109611e-02 8.3112717e-01 6.9167531e-01 3.5631657e-04 4.5146310e-01]
 [8.7746727e-01 1.7722619e-01 3.1525445e-01 6.7187238e-01 6.2367332e-01]]
# 变量封装 张量   ,var 封装 tsr

my_var =tf.Variable(tf.zeros([3,5]))
print(my_var,"\n")
#print(sess.run(my_var))   return error  beca  my_var is not initializer()

<tf.Variable 'Variable_2:0' shape=(3, 5) dtype=float32_ref> 


# 高级 , 有一些张量 是 数组建立的 numpy  
#使用 函数 convert_to_tensor()  来转换成张量  , 放到tf 的变量里 封装起来 ,后期方便 图运算


#总结   
"""三步走,第一步是 导入 tensorflow  第二步  启动图 tf.Session() 第三步 封装张量 tf.Variable()
先启动,然后声明定义,最终进行封装-变量来封装张量  var封装tsr
"""
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值