tensorflow
文章平均质量分 61
永不言败_never say never
坚持就是胜利
展开
-
tf.stack和tf.unstack用法
tf.unstack参数了如下:def unstack(value, num=None, axis=0, name="unstack"): Args: value: A rank `R > 0` `Tensor` to be unstacked. num: An `int`. The length of the dimension `axis`. Automatically inferred if `None` (the default). axis: An `i原创 2022-01-25 13:51:20 · 2516 阅读 · 0 评论 -
tf.stack的用法
tf.stack()是一个矩阵拼接函数,会根据函数中对应的参数调整拼接的维度。 axis=0,表示在第一个维度及逆行数据的拼接,如1x3和1x3的数据拼接会形成一个形状为2x3的数据。axis=1表示在第二维的数据进行拼接。import tensorflow as tfimport numpy as npa=tf.constant([[1,2,3],[4,5,6]])aa1=tf.constant([1,2,3])aa2=tf.constant([4,5,6])#],[[7,8,9],[10,11原创 2021-09-09 15:52:56 · 6708 阅读 · 0 评论 -
获取tf.placeholder()定义的维度
因为实验设置需要获取tf.placeholder()定义的维度的参数(三维的),开始使用tf.shape()发现shape是一维的,不能获得具体的维度,查找资料之后发现可以使用 .shape.as_list()发放获取具体的维度。测试代码如下:import tensorflow as tftest = tf.placeholder(tf.float32,shape=[None,4,1])test_shape_1 =tf.shape(test)print('test_shape_1:',test_s原创 2021-08-14 10:19:48 · 370 阅读 · 0 评论 -
tf.placeholder和tf.Variable的区别
tf.Variable(self,initial_value: Any = None,trainable: Any = None,collections: Any = None,validate_shape: bool = True,caching_device: Any = None,name: Any = None,variable_def: Any = None,dtype: Any = None,expected_shape: Any = None,import_scope: A原创 2020-10-06 17:37:08 · 361 阅读 · 0 评论 -
搭建神经网络步骤
六步法搭建神经网络1、导入相关模块(import)。tensorflow,numpy等模块2、告知要喂入网络的训练集和测试集(train,test),需要指定训练集的输入特征x_train和训练集的标签y_train,以及测试集的输入特征x_test和测试集的标签y_test。3、在Sequential()中搭建网络结构,逐层描述每层网络,相当于走了一遍前向传播。(Sequential()可以搭建出上层输出就是下层输入的顺序网络结构,但是无法写出带有跳连的非顺序网络结构,可以使用自定义类搭建神经网络结原创 2020-08-19 21:36:33 · 6839 阅读 · 1 评论 -
神经网络优化的步骤以及常用的神经网络优化器
优化神经网络相关的参数:w表示待优化参数,loss表示损失函数,lr表示学习率,batch表示每次迭代的数据,t表示当前batch迭代的总次数:神经网络参数优化的步骤:1、计算t时刻损失函数关于当前梯度gt=▽loss=2、计算t时刻一阶动量mt和二阶动量vt3、计算t时刻下降梯度:ηt=lrmt/4、计算t+1时刻参数:Wt+1=Wt-ηt=Wt-lrmt/一阶动量:与梯度相关的函数二阶动量:与梯度平方相关的函数常用的优化器:(1)SDG(Stochastic gradient des原创 2020-08-19 15:15:33 · 520 阅读 · 0 评论 -
与tensorflow结合使用的常用的numpy库中的函数
"""tf.where() 条件语句为真返回A,条件语句假返回Btf.where(条件语句,真返回A,假返回B)"""import tensorflow as tfimport numpy as npa=tf.constant([2,2,3,7,9])b=tf.constant([1,1,3,4,5])#张量维度必须相同#b=tf.constant([1,2,3,4,5,6])#会报错,因为比第一个张量多了一个元素c=tf.where(tf.greater(a,b),a,b)#若a>原创 2020-08-17 12:38:29 · 396 阅读 · 0 评论 -
tensorflow中的常用函数(1)
今天学习了tensorflow的一些的常用函数,如下:IDE:Pycharmtensorflow版本:2.1.0注意:tensoflow版本不一样可能导致输出结果不一致# import tensorflow as tf# x=tf.Variable(initial_value=3.0)# with tf.GradientTape(persistent=True) as g:# y=x*x# dy_dx=g.gradient(y,x)# print(dy_dx)# # dy_dx=原创 2020-08-13 15:18:01 · 231 阅读 · 0 评论 -
自编码器(Autoencoder)学习总结
自编码器(antoencoder)学习总结自编码器通常包括两部分:encoder(识别网络或者编码器)将输入转化为内部表示(就是图中的压缩过程),decoder(生成网络或者解码器),将内部表示转换为输出,就是图中的解压过程。...原创 2020-07-29 22:28:09 · 2385 阅读 · 0 评论 -
卷积神经网络学习总结(1)
今天学习了的关于CNN(ConvolutionalNerualNetwaor)卷积神经网络的知识。了解了卷积神经网络的学习过程:首先提取像素点的特征,提取出物体的边缘特征,然后提取去物体的局部特征(例如人眼、人的耳朵、鼻子等等),最后得出物体的模型。卷积神经网络的常用搭建方法是:1、输入图片2、进行一层卷积3、进行最大池化4、进行第二次卷积5、进行第二次最大池化6、进行两次全连接7、分类。...原创 2020-07-27 21:43:00 · 194 阅读 · 0 评论