Keras学习笔记(layers说明)

1. 常用layers说明

1.1 Dense(维度不变)

全连接层,只对数据最后一个维度进行处理。

1.2 Embedding(维度增加)

词向量嵌入层,对输入文本的每一字扩展为一个向量,相当于对数据添加了一个维度。

1.3 LSTM(维度减少)

lstm只能处理文本维度的数据(不算batch为2维),将这两维的数据进行处理,输出值一维中。但是LSTM(16, return_sequences=True)时,有return_state=True则数据维度不会变。

1.4 lFlatten(维度减至一维)

数据展平,长度为各维(除batch维)相乘。

1.5 TimeDistributed(层封装器)

使用方法:

TimeDistributed(imag_model)(video_input)
# 或者:
TimeDistributed(Conv2D(64, (3, 3)), input_shape=(10, 299, 299, 3))

本来是3维的图片模型,使用TimeDistributed之后可以处理4维视频数据,就是在video_input的每一时间步都使用imag_model来处理。

1.6 Bidirectional(层封装器)
Bidirectional(LSTM(10, return_sequences=True),  input_shape=(5, 10))

2. 卷积层

2.1 Conv1D

1D 卷积层 (例如时序卷积)。

输入尺寸:
3D 张量 ,尺寸为 (batch_size, steps, input_dim)。

输出尺寸:
3D 张量,尺寸为 (batch_size, new_steps, filters)。 由于填充或窗口按步长滑动,steps 值可能已更改。
2.2 Conv2D

2D 卷积层 (例如对图像的空间卷积)。

输入尺寸:
如果 data_format='channels_first', 输入 4D 张量,尺寸为 (samples, channels, rows, cols)。
如果 data_format='channels_last', 输入 4D 张量,尺寸为 (samples, rows, cols, channels)。

输出尺寸:
如果 data_format='channels_first', 输出 4D 张量,尺寸为 (samples, filters, new_rows, new_cols)。
如果 data_format='channels_last', 输出 4D 张量,尺寸为 (samples, new_rows, new_cols, filters)
2.3 Conv2DTranspose

转置卷积层 (有时被成为反卷积)。

输入尺寸:
如果 data_format='channels_first', 输入 4D 张量,尺寸为 (batch, channels, rows, cols)。
如果 data_format='channels_last', 输入 4D 张量,尺寸为 (batch, rows, cols, channels)。

输出尺寸:
如果 data_format='channels_first', 输出 4D 张量,尺寸为 (batch, filters, new_rows, new_cols)。
如果 data_format='channels_last', 输出 4D 张量,尺寸为 (batch, new_rows, new_cols, filters)
2.4 3D 卷积层 (例如立体空间卷积)。

转置卷积层 (有时被成为反卷积)。

输入尺寸:
如果 data_format='channels_first', 输入 5D 张量,尺寸为 (samples, channels, conv_dim1, conv_dim2, conv_dim3)。
如果 data_format='channels_last', 输入 5D 张量,尺寸为 (samples, conv_dim1, conv_dim2, conv_dim3, channels)。

输出尺寸:
如果 data_format='channels_first', 输出 5D 张量,尺寸为 (samples, filters, new_conv_dim1, new_conv_dim2, new_conv_dim3)。
如果 data_format='channels_last', 输出 5D 张量,尺寸为 (samples, new_conv_dim1, new_conv_dim2, new_conv_dim3, filters)。
由于填充的原因,new_conv_dim1, new_conv_dim2 和 new_conv_dim3 值可能已更改。
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我会尽力回答你的问题。对于您的问题,我理解您想问我如何调用U-NET模型,以下是我给出的回答。 首先,U-NET模型是一个用于图像分割的深度学习模型,它使用卷积神经网络来学习图像中不同区域的特征,并将它们分割成不同的类别。在TensorFlow 2.0中,我们可以使用tf.keras API来实现U-NET模型。 以下是一个简单的U-NET模型的实现代码: ```python import tensorflow as tf from tensorflow.keras.layers import * def conv_block(inputs, filters, kernel_size=(3, 3), activation='relu', padding='same'): x = Conv2D(filters, kernel_size, activation=activation, padding=padding)(inputs) x = BatchNormalization()(x) x = Conv2D(filters, kernel_size, activation=activation, padding=padding)(x) x = BatchNormalization()(x) return x def unet(input_shape=(256, 256, 3)): inputs = Input(shape=input_shape) c1 = conv_block(inputs, 64) p1 = MaxPooling2D((2, 2))(c1) c2 = conv_block(p1, 128) p2 = MaxPooling2D((2, 2))(c2) c3 = conv_block(p2, 256) p3 = MaxPooling2D((2, 2))(c3) c4 = conv_block(p3, 512) p4 = MaxPooling2D((2, 2))(c4) c5 = conv_block(p4, 1024) u6 = Conv2DTranspose(512, (2, 2), strides=(2, 2), padding='same')(c5) u6 = concatenate([u6, c4]) c6 = conv_block(u6, 512) u7 = Conv2DTranspose(256, (2, 2), strides=(2, 2), padding='same')(c6) u7 = concatenate([u7, c3]) c7 = conv_block(u7, 256) u8 = Conv2DTranspose(128, (2, 2), strides=(2, 2), padding='same')(c7) u8 = concatenate([u8, c2]) c8 = conv_block(u8, 128) u9 = Conv2DTranspose(64, (2, 2), strides=(2, 2), padding='same')(c8) u9 = concatenate([u9, c1]) c9 = conv_block(u9, 64) outputs = Conv2D(1, (1, 1), activation='sigmoid')(c9) model = tf.keras.Model(inputs=[inputs], outputs=[outputs]) return model ``` 在这个实现中,我们使用了Conv2D、BatchNormalization、MaxPooling2D和Conv2DTranspose等层来构建U-NET模型。我们还定义了一个conv_block函数来简化代码。 使用这个实现代码,我们可以通过以下方式调用U-NET模型: ```python model = unet() ``` 这将返回一个U-NET模型的实例,我们可以使用该实例来进行训练和预测。 希望这个回答对您有所帮助。如果您还有其他问题,请随时问我。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值