![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
zy_ky
这个作者很懒,什么都没留下…
展开
-
tf.keras.layers.TimeDistributed
函数原型:tf.keras.layers.TimeDistributed( layer, **kwargs)除了batch_size以外,第一个维度被认为是时间维度,在进行卷积或其他操作的时候,batch_size和时间维度保持不变,对后面的维度进行处理,所以至少应该为3维。比如(32, 10, 128, 128, 3),batch_size = 32, 包含10个时间步长的128*128的RGB图片。inputs = tf.keras.Input(shape=(10, 128, 128原创 2020-12-08 16:04:28 · 985 阅读 · 0 评论 -
tf.keras.layers.LSTM和tf.keras.layers.ConvLSTM2D
文章目录tf.keras.layers.LSTMtf.keras.layers.ConvLSTM2Dtf.keras.layers.LSTM函数原型:tf.keras.layers.LSTM( units, activation='tanh', recurrent_activation='sigmoid', use_bias=True, kernel_initializer='glorot_uniform', recurrent_initializer='orthogonal',原创 2020-12-08 15:04:57 · 1790 阅读 · 0 评论 -
tf.keras.layers运算
文章目录tf.keras.layers.Permutetf.keras.layers.Multiplytf.keras.layers.Reshapetf.keras.layers.Permutetf.keras.layers.Permute( dims, **kwargs)使用案例:model = Sequential()model.add(Permute((2, 1), input_shape=(10, 64)))# now: model.output_shape == (Non原创 2020-12-08 13:12:28 · 2363 阅读 · 1 评论 -
tf.keras.layers.Dense
函数原型tf.keras.layers.Dense( units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint原创 2020-12-08 11:29:32 · 450 阅读 · 0 评论 -
tf.keras.layers.Conv2D和tf.keras.layers.Conv2DTranspose
tf.keras.layers.Conv2D( filters, kernel_size, strides=(1, 1), padding='valid', data_format=None, dilation_rate=(1, 1), groups=1, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regulariz原创 2020-12-08 11:08:08 · 4259 阅读 · 3 评论 -
tf.keras.layers.Conv1D和tf.keras.layers.Conv1DTranspose
tf.keras.layers.Conv1D( filters, kernel_size, strides=1, padding='valid', data_format='channels_last', dilation_rate=1, groups=1, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regulari原创 2020-12-08 10:21:07 · 2747 阅读 · 6 评论 -
jupyter_notebook修改默认路径
一、确保anaconda的系统环境变量配置如果没有添加D:\anaconda3\Library\bin这个维环境变量就会报错DLL load failed XXX二、cmd命令行输入jupyter notebook --generate-config于是出现在C:\用户\用户名.jupyter文件夹生成了:3. 在jupyter_notebook_config.py中找到并修改如下配置项:修改前: #c.NotebookApp.notebook_dir = ‘’删除前面的 # 号转载 2020-05-12 14:36:39 · 144 阅读 · 0 评论 -
TensorFlow(五)维度变换
文章目录改变视图、增删维度交换维度复制数据Broadcasting文章来源改变视图、增删维度 基本的维度变换操作函数包含了改变视图 reshape、 插入新维度 expand_dims,删除维度 squeeze、 交换维度 transpose、 复制数据 tile 等函数。x=tf.reshape(x,[2,4,4,3]) # 改变 x 的视图,获得 4D 张量,存储并未改变tf.res...转载 2019-12-17 21:06:59 · 552 阅读 · 0 评论 -
TensorFlow(四)索引与切片
文章目录索引切片文章来源通过索引与切片操作可以提取张量的部分数据, 它们的使用频率非常高.索引 和C中索引矩阵相同,脚标0开始。x = tf.random.normal([4,32,32,3]) # 创建 4D 张量x[0]x[0][1]x[0][1][2]x[2][1][0][1]x[1,9,2] 当张量的维度数较高时, 使用[m][n][j][k]的方式书写不方便,可...转载 2019-12-17 19:08:48 · 356 阅读 · 0 评论 -
TensorFlow(三)张量的典型应用
文章目录标量向量矩阵三维张量四维张量文章来源标量 在 TensorFlow 中,标量最容易理解,它就是一个简单的数字,维度数为 0, shape 为[]。标量的一些典型用途是误差值的表示、 各种测量指标的表示,比如准确度(Accuracy,简称 acc),精度(Precision)和召回率(Recall)等。向量 向量是一种非常常见的数据载体,如在全连接层和卷积神经网络层中,偏置张量...转载 2019-12-17 18:28:44 · 576 阅读 · 0 评论 -
TensorFlow(二)数据类型
文章目录数值类型数值精度TensorFlow 中的基本数据类型,包含数值类型、 字符串类型和布尔类型。数值类型数值类型的张量是 TensorFlow 的主要数据载体, 根据维度数来区分,可分为:数值类型的张量是 TensorFlow 的主要数据载体, 根据维度数来区分,可分为:标量(Scalar)。 单个的实数,如 1.2, 3.4 等,维度(Dimension)数为 0, shape...转载 2019-12-17 16:38:32 · 324 阅读 · 0 评论