【笔记】【LSTM算法】一、Keras的简介

用Keras搭建LSTM网络,预测时间序列,用MAE当做评价指标

一般会用到mae和maep来作为评价指标

1.关于Keras

        1)简介          

         Keras是由纯python编写的基于theano/tensorflow的深度学习框架。

         Keras是一个高层神经网络API,支持快速实验,能够把你的idea迅速转换为结果,如果有如下需求,可以优先选择Keras:

                a)简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性)

                b)支持CNN和RNN,或二者的结合

                c)无缝CPU和GPU切换

 2)设计原则

               a)用户友好:Keras是为人类而不是天顶星人设计的API。用户的使用体验始终是我们考虑的首要和中心内容。Keras遵循减少认知困难的最佳实践:Keras提供一致而简洁的API, 能够极大减少一般应用下用户的工作量,同时,Keras提供清晰和具有实践意义的bug反馈。

               b)模块性:模型可理解为一个层的序列或数据的运算图,完全可配置的模块可以用最少的代价自由组合在一起。具体而言,网络层、损失函数、优化器、初始化策略、激活函数、正则化方法都是独立的模块,你可以使用它们来构建自己的模型。

              c)易扩展性:添加新模块超级容易,只需要仿照现有的模块编写新的类或函数即可。创建新模块的便利性使得Keras更适合于先进的研究工作。

              d)与Python协作:Keras没有单独的模型配置文件类型(作为对比,caffe有),模型由python代码描述,使其更紧凑和更易debug,并提供了扩展的便利性。

2.Keras的模块结构

3.使用Keras搭建一个神经网络 

4.模型

Keras有两种类型的模型,序贯模型(Sequential)和函数式模型(Model),函数式模型应用更为广泛,序贯模型是函数式模型的一种特殊情况。
          a)序贯模型(Sequential):单输入单输出,一条路通到底,层与层之间只有相邻关系,没有跨层连接。这种模型编译速度快,操作也比较简单
          b)函数式模型(Model):多输入多输出,层与层之间任意连接。这种模型编译速度慢。 

5.第一个示例

          这里也采用介绍神经网络时常用的一个例子:手写数字的识别。

可能因为版本的问题,有些参数可能出现差异。

1)Dense(500,input_shape=(784,))

               a)Dense层属于网络层-->常用层中的一个层

               b) 500表示输出的维度,完整的输出表示:(*,500):即输出任意个500维的数据流。但是在参数中只写维度就可以了,比较具体输出多少个是有输入确定的。换个说法,Dense的输出其实是个N×500的矩阵。

              c)input_shape(784,) 表示输入维度是784(28×28,后面具体介绍为什么),完整的输入表示:(*,784):即输入N个784维度的数据

  2)Activation('tanh')

              a)Activation:激活层

              b)'tanh' :激活函数

 3)Dropout(0.5)

              在训练过程中每次更新参数时随机断开一定百分比(rate)的输入神经元,防止过拟合。

第四步:训练
   .fit的一些参数
   batch_size:对总的样本数进行分组,每组包含的样本数量,随机梯度,随机抓取数据进行计算
   epochs :训练次数
   shuffle:是否把数据随机打乱之后再进行训练
   validation_split:拿出百分之多少用来做交叉验证
   verbose:屏显模式 0:不输出  1:输出进度  2:输出每次的训练结果

 

 

 

  • 9
    点赞
  • 50
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
以下是使用Keras实现LSTM电力负荷预测的示例代码: ```python import numpy as np import pandas as pd from keras.models import Sequential from keras.layers import Dense, LSTM # 读取数据 data = pd.read_csv('data.csv', header=None) data = data.values # 数据预处理 train_size = int(len(data) * 0.67) test_size = len(data) - train_size train, test = data[0:train_size,:], data[train_size:len(data),:] def create_dataset(dataset, look_back=1): dataX, dataY = [], [] for i in range(len(dataset)-look_back-1): a = dataset[i:(i+look_back), 0] dataX.append(a) dataY.append(dataset[i + look_back, 0]) return np.array(dataX), np.array(dataY) look_back = 1 trainX, trainY = create_dataset(train, look_back) testX, testY = create_dataset(test, look_back) # 转换为3D格式 [样本数,时间步长,特征数] trainX = np.reshape(trainX, (trainX.shape[0], 1, trainX.shape[1])) testX = np.reshape(testX, (testX.shape[0], 1, testX.shape[1])) # 创建LSTM模型 model = Sequential() model.add(LSTM(4, input_shape=(1, look_back))) model.add(Dense(1)) model.compile(loss='mean_squared_error', optimizer='adam') model.fit(trainX, trainY, epochs=100, batch_size=1, verbose=2) # 预测 trainPredict = model.predict(trainX) testPredict = model.predict(testX) # 反归一化 trainPredict = scaler.inverse_transform(trainPredict) trainY = scaler.inverse_transform([trainY]) testPredict = scaler.inverse_transform(testPredict) testY = scaler.inverse_transform([testY]) # 计算RMSE trainScore = math.sqrt(mean_squared_error(trainY[0], trainPredict[:,0])) print('Train Score: %.2f RMSE' % (trainScore)) testScore = math.sqrt(mean_squared_error(testY[0], testPredict[:,0])) print('Test Score: %.2f RMSE' % (testScore)) ``` 其中,数据集需要自行准备,代码中的数据集文件名为data.csv。在代码中,首先读取数据,然后将数据集分为训练集和测试集。接着,使用create_dataset函数将数据集转换为可以用于LSTM模型训练的格式。然后,将数据集转换为3D格式,创建LSTM模型并进行训练。最后,使用训练好的模型进行预测,并计算RMSE值。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值