lstm实例:构建lstm模型过程

参考连接:

LSTM系列_3.1~3.3、第一个LSTM小例子:Keras中LSTM建模的5个核心步骤(python)_日拱一卒-CSDN博客_lstm python 例子

1.定义网络

我们将构建一个LSTM神经网络,在可见层中具有1个输入时间步长和1个输入特征,在LSTM隐藏层中具有10个存储器单元,在完全连接的输出层中具有1个具有线性(默认)激活功能的神经元。
2.编译网络

我们将使用具有默认配置和均方误差丢失函数的高效ADAM优化算法,因为它是回归问题。
3.适合网络

我们将使网络适合1,000个时期,并使用等于训练集中模式数量的批量大小。我们还将关闭所有详细输出。
4.评估网络

我们将在训练数据集上评估网络。通常,我们会在测试或验证集上评估模型。
5.做出预测

我们将对训练输入数据进行预测。同样,通常我们会对我们不知道正确答案的数据做出预测。
 

步骤1.定义网络
第一步是定义您的网络。

神经网络在Keras中被定义为层序列。这些图层的容器是Sequential类。

第一步是创建Sequential类的实例。然后,您可以创建图层并按照它们应连接的顺序添加它们。由存储器单元组成的LSTM循环层称为LSTM()。通常跟随LSTM层并用于输出预测的完全连接层称为Dense()。

例如,我们可以分两步完成:

model = Sequential()
model.add(LSTM(2))
model.add(Dense(1))
但是我们也可以通过创建一个图层数组并将其传递给Sequential的构造函数来一步完成。

layers = [LSTM(2), Dense(1)]
model = Sequential(layers)
网络中的第一层必须定义预期的输入数量。输入必须是三维的,包括样本,时间步和特征。

样品。这些是数据中的行。
时间步。这些是过去对特征的观察,例如滞后变量。
特色。这些是数据中的列。
假设您的数据作为NumPy数组加载,您可以使用NumPy中的reshape()函数将2D数据集转换为3D数据集。如果您希望列成为一个功能的时间步长,您可以使用:

data = data.reshape((data.shape[0], 1, data.shape[1]))
如果您希望2D数据中的列成为具有一个时间步长的要素,则可以使用:

data = data.reshape((data.shape[0], 1, data.shape[1]))
您可以指定input_shape参数,该参数需要包含时间步数和要素数的元组。例如,如果我们有两个时间步长和一个特征用于单变量时间序列,每行有两个滞后观察值,则将指定如下:

model = Sequential()
model.add(LSTM(5, input_shape=(2,1)))
model.add(Dense(1))
可以通过将LSTM图层添加到Sequential模型来堆叠LSTM图层。重要的是,当堆叠LSTM层时,我们必须为每个输入输出序列而不是单个值,以便后续LSTM层可以具有所需的3D输入。我们可以通过将return_sequences参数设置为True来完成此操作。例如:

model = Sequential()
model.add(LSTM(5, input_shape=(2,1), return_sequences=True))
model.add(LSTM(5))
model.add(Dense(1))
将Sequential模型视为一个管道,其中您的原始数据最终被输入,而预测则来自另一个。

这在Keras中是一个有用的容器,因为传统上与图层相关的关注点也可以拆分并作为单独的图层添加,清楚地显示它们在从输入到预测的数据转换中的作用。将Sequential模型视为一个管道,其中您的原始数据最终被输入,而预测则来自另一个。

例如,可以提取转换来自层中每个神经元的求和信号的激活函数,并将其作为称为激活的层状对象添加到Sequential中。

model = Sequential()
model.add(LSTM(5, input_shape=(2,1)))
model.add(Dense(1))
model.add(Activation('sigmoid'))
激活函数的选择对于输出层是最重要的,因为它将定义预测将采用的格式。

例如,下面是一些常见的预测建模问题类型以及可以在输出层中使用的结构和标准激活函数:激活函数的选择对于输出层是最重要的,因为它将定义预测将采用的格式。

回归:线性激活函数,或“线性”,以及与输出数量匹配的神经元数量。
二进制分类(2类):逻辑激活函数,或'sigmoid',以及输出层的一个神经元。
多类分类(> 2类):假设单热编码输出模式,Softmax激活函数或'softmax',每个类值一个输出神经元。
第2步。编译网络
一旦我们定义了网络,我们就必须编译它。

编译是一个效率步骤。它将我们定义的简单图层序列转换为高效的矩阵变换系列,其格式应在GPU或CPU上执行,具体取决于Keras的配置方式。

将编译视为网络的预计算步骤。定义模型后始终需要它。

编译需要指定许多参数,专门用于培训您的网络。具体地,用于训练网络的优化算法和用于评估由优化算法最小化的网络的损失函数。

例如,下面是编译定义模型并指定随机梯度下降(sgd)优化算法和均值误差(mean_squared_error)损失函数的情况,用于回归类型问题。

model.compile(optimizer='sgd', loss='mean_squared_error')
或者,可以在作为编译步骤的参数提供之前创建和配置优化程序。

algorithm = SGD(lr=0.1, momentum=0.3)
model.compile(optimizer=algorithm, loss='mean_squared_error')
预测建模问题的类型对可以使用的损失函数的类型施加约束。

例如,下面是不同预测模型类型的一些标准损失函数:预测建模问题的类型对可以使用的损失函数的类型施加约束。

回归:均值平方误差或'mean_squared_error'。
二进制分类(2类):对数损失,也称为交叉熵或“binary_crossentropy”。
多类分类(> 2类):多类对数损失或'categorical_crossentropy'。
最常见的优化算法是随机梯度下降,但Keras还支持一套其他最先进的优化算法,这些算法在很少或没有配置的情况下都能很好地工作。

也许最常用的优化算法因为它们通常具有更好的性能:

随机梯度下降,或'sgd',需要调整学习速度和动量。
ADAM,或“亚当”,需要调整学习率。
RMSprop或'rmsprop',需要调整学习速率。
最后,除了损失函数之外,您还可以指定在拟合模型时收集的度量标准。通常,要收集的最有用的附加度量标准是分类问题的准确性。要收集的度量标准由数组中的名称指定。

例如:

model.compile(optimizer='sgd', loss='mean_squared_error', metrics=['accuracy'])
步骤3.fit网络
一旦网络被编译,它就可以适合,这意味着在训练数据集上调整权重。

安装网络需要指定训练数据,包括输入模式矩阵X和匹配输出模式数组y。

使用反向传播算法训练网络,并根据编译模型时指定的优化算法和损失函数进行优化。

反向传播算法要求网络训练指定数量的时期或暴露于训练数据集。

每个纪元可以被划分为称为批次的输入 - 输出模式对的组。这定义了在一个纪元内更新权重之前网络所接触的模式数。它也是一种效率优化,确保一次不会将太多输入模式加载到内存中。

拟合网络的最小例子如下:

history = model.fit(X, y, batch_size=10, epochs=100)
适合后,将返回历史对象,该对象提供训练期间模型性能的摘要。这包括损失和编译模型时指定的任何其他指标,记录每个时期。

训练可能需要很长时间,从几秒到几小时到几天,具体取决于网络的大小和培训数据的大小。适合后,将返回历史对象,该对象提供训练期间模型性能的摘要。这包括损失和编译模型时指定的任何其他指标,记录每个时期。

默认情况下,每个纪元的命令行上都会显示一个进度条。这可能会给您带来太多噪音,或者可能会对您的环境造成问题,例如您使用的是交互式笔记本电脑或IDE。

通过将详细参数设置为2,可以减少每个时期显示的信息量。您可以通过将详细设置为1来关闭所有输出。例如:

history = model.fit(X, y, batch_size=10, epochs=100, verbose=0)
第4步。评估网络
一旦网络被训练,就可以对其进行评估。

可以在训练数据上评估网络,但是这不会提供作为预测模型的网络性能的有用指示,因为它之前已经看到了所有这些数据。

我们可以在测试期间看不到的单独数据集上评估网络的性能。这将在未来对未见数据进行预测时提供网络性能的估计。

该模型评估所有测试模式的损失,以及编译模型时指定的任何其他指标,如分类准确性。返回评估指标列表。

例如,对于使用精度度量编制的模型,我们可以在新数据集上对其进行评估,如下所示:

loss, accuracy = model.evaluate(X, y)

与拟合网络一样,提供详细输出以了解评估模型的进度。我们可以通过将verbose参数设置为0来关闭它。

loss, accuracy = model.evaluate(X, y, verbose=0)


第5步。做出预测
一旦我们对拟合模型的性能感到满意,我们就可以用它来预测新数据。

这就像使用一组新输入模式调用模型上的predict()函数一样简单。

例如:

predictions = model.predict(X)

预测将以网络输出层提供的格式返回。

在回归问题的情况下,这些预测可以是直接问题的格式,由线性激活函数提供。预测将以网络输出层提供的格式返回。

对于二元分类问题,预测可以是第一类的概率数组,其可以通过舍入转换为1或0。

对于多类分类问题,结果可以是概率数组的形式(假设一个热编码输出变量),可能需要使用argmax()NumPy函数将其转换为单个类输出预测。

或者,对于分类问题,我们可以使用predict_classes()函数,该函数会自动将uncrisp预测转换为清晰的整数类值。

predictions = model.predict_classes(X)

与拟合和评估网络一样,提供详细输出以给出预测模型进展的概念。我们可以通过将verbose参数设置为0来关闭它。

predictions = model.predict(X, verbose=0)
 

  • 6
    点赞
  • 90
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
LSTM(长短期记忆)是一种循环神经网络(RNN)的变体,用于处理序列数据。在Python中构建LSTM网络模型可以使用Keras库中的Sequential模型。在构建LSTM网络模型时,可以使用以下代码示例: 引用\[1\]: ``` model = Sequential() model.add(LSTM(5, input_shape=(2,1), return_sequences=True)) model.add(LSTM(5)) model.add(Dense(1)) ``` 在这个示例中,我们首先创建了一个Sequential模型。然后,我们使用`model.add()`方法将LSTM层添加到模型中。在这个例子中,我们添加了两个LSTM层,每个层都有5个隐藏单元。第一个LSTM层的输入形状是(2,1),表示每个输入序列有2个时间步长和1个特征。我们还设置了`return_sequences=True`,以便第一个LSTM层的输出作为第二个LSTM层的输入。最后,我们添加了一个全连接层(Dense)作为输出层。 引用\[2\]: ``` model = Sequential() model.add(LSTM(5, input_shape=(2,1))) model.add(Dense(1)) ``` 在这个示例中,我们只添加了一个LSTM层,没有设置`return_sequences=True`。这意味着该LSTM层的输出将作为全连接层的输入。 引用\[3\]: ``` model = Sequential() model.add(LSTM(2)) model.add(Dense(1)) ``` 在这个示例中,我们只添加了一个LSTM层,没有设置输入形状。这意味着模型将自动适应输入数据的形状。 总结来说,通过使用Sequential模型LSTM层,我们可以构建具有不同层数和隐藏单元数量的LSTM网络模型。这些模型可以用于处理序列数据,并通过添加全连接层来进行预测。 #### 引用[.reference_title] - *1* *2* *3* [lstm实例构建lstm模型过程](https://blog.csdn.net/WangYouJin321/article/details/123251651)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小金子的夏天

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值