1、enumerate(sequence,[start=0])组成索引序列。
numpy.transpose(),一维数组不起作用,二维数组转置,三维数组交换(0轴和2轴)。
2、constant(value,dype=None,shape=None,name='const',verify_shape=False)
创建一个tensor,value为值,当给定的赋值数量不够时,都赋予最后一个值。其实我在这的理解,就相当于一个封装好的对象,对象中包含很多种不同是数据。
3、tf.get_value(name,shape=None,dtype=tf.float32,initializer=None,regularizer=None,trainable=True,collertions=None)
定义变量,获得已经存在的变量。
tf.Variable(<intilal-value>,name=<optional-name>)
tf.Variable与前一个的差别就是这个只能创建变量,当创建变量时,两者相同。
tf.variable_scope(<scope-name>)管理传给get_varliable的变量名称的作用域。
4、tf.nn.conv2d(input,filter,stride,padding,use_cudnn_on_gpu=None,name=None)
卷积函数,input需要有[batch,in_height,in_width,in_channl]
fliter,类似于CNN卷积核,为Tensor
[filter_height,fliter_width,in_channels,out_channls]
strides:每一维步长
padding:SAME或VALID 决定不同的卷积方式,SAME表示可保留图像边缘。
use_cudnn_on_gpu:bool类型,是否用cudnn加速
5、tf.nn.bias_add(value,bias,name=None)
将偏移项加到Value上
tf.add_n(inputs,name=None)相加,但不能广播
6、画图显示标量信息
tf.summary.scalar(tags,values,collections=None,name=None)显示直方图信息
tf.summary.histogram(tags,values,collections=None,name=None)显示weights分布
tf.summary.distribution
7、pool
tf.nn.avg_pool(value,ksize,strides,padding,data_format='NHWC',name=None)
tf.nn.max_pool(value,ksize,strides,padding,data_format='NHWC',name=None)
tf.nn.max_pool_with_argmax(input,ksize,stides,padding,Targmax=None,name=None)计算池中最大 及最大所在位置
tf.nn.avg_pool3d和tf.nn.max_pool3d()三维条件下平均池化层和最大池化层
tf.nn.fractional_avg_pool和tf.nn.fractional_max_pool()分别在三维条件下的平均池化和最大池化
8、numpy.mean(a,axis,dype,out,keepdims)求平均值
axis=不设置值,对M*N个数求平均值,返回一实数
axis=0 压缩行,对各列求平均值,返回1*n矩阵
axis=1 压缩列,求各行平均值,返回m*1矩阵
9、tf.truncated_normal(shape,mean,stddev,dtype,seed,name)从截断的正太分布中输出随机值
shape表示张量的维度,mean均值,stddev标准差,seed一个整数
tf.random_normal(shape,minval,maxval,dtype,seed,name)用上下限约束
10、tf.nn.dropout 是为了防止过拟合和减轻过拟所使用的函数,一般用在全连接层
tf.nn.dropout(x,keep_prob,noise_shape=None,seed=None,name=None)
x 输入 keep_prob被选中的概率(初始化时为一个占位符)
11、numpy.expand_dims(a,axis)扩大维度
axis=0行变为列 列变为厚度
axis=1把列变为厚度
12、tf.nn.maxpool(input,ksize=[1,2,2,1],strides=[1,2,2,1],padding)