5分钟用keras实验LSTM时间序列预测最简单版,简单就是一切!能运行就是一切!

输入测试数据,这里以sin函数为例:

data = np.sin(x)
print(data)

[0.         0.14943813 0.29552021 ... 0.96101339 0.90890233 0.83637928]
这个函数你可以随便写,也可以展开应用,开个脑洞:

一,把一首歌的单声部时序录入,如果是多声部,如钢琴,录入多次运行多次好了。

比如理查德的经典和弦套路,梦中婚礼,星空,6253进行,都可以理解为是时间序列,预测和弦是简单的,还可以预测具体的音阶时长,最后做一万首理查德风格的钢琴曲!汪峰,许巍,Yiruma,肖邦都可以!~

声音可以描述成12分律,用相对音高,首调来描述,Do Re Mi Fa So La Si分别对应,0和12同唱名

0,2,4,5,7,9,11,12 然后可以转成MusicXML,放到OVE,GuitaPro 里播放。

二,古诗,小说亦何尝不是时间序列?录入三国演义,全唐诗,会输出什么?

三,图片亦何尝不是时间序列?录入大量Ru1mm图片,会输出什么?

import matplotlib.pyplot as plt
import numpy as np
from numpy import newaxis
from keras.models import Sequential
from keras.layers.core import Dense, Activation
from keras.layers.recurrent import LSTM
import os

os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"

step = 0.15
steps = 750
x = np.arange(0, steps, step)
data = np.sin(x)
print(data)
SEQ_LENGTH = 100
sequence_length = SEQ_LENGTH + 1
result = []

for index in range(len(data) - sequence_length):
    result.append(data[index: index + sequence_length])
result = np.array(result)

row = round(0.9 * result.shape[0])


train = result[:int(row), :]

np.random.shuffle(train)
x_train = train[:, :-1]
y_train = train[:, -1]
x_test = result[int(row):, :-1]
y_test = result[int(row):, -1]

# LSTM层的输入必须是三维的
x_train = np.reshape(x_train, (x_train.shape[0], x_train.shape[1], 1))
x_test = np.reshape(x_test, (x_test.shape[0], x_test.shape[1], 1))
print(x_train)

# Neural Network model
HIDDEN_DIM = 512
LAYER_NUM = 10
model = Sequential()
model.add(LSTM(50, input_shape=(x_train.shape[1], x_train.shape[2]), return_sequences=True))
model.add(LSTM(100, return_sequences=False))
model.add(Dense(1))
model.add(Activation('linear'))
model.compile(loss="mse", optimizer="rmsprop")
model.summary()
BATCH_SIZE = 32
epoch = 1
model.fit(x_train, y_train, batch_size=BATCH_SIZE, verbose=1, epochs=epoch, validation_split=0.05)

# start with first frame
curr_frame = x_test[0]

# start with zeros
# curr_frame = np.zeros((100,1))

predicted = []
for i in range(len(x_test)):
    predicted.append(model.predict(curr_frame[newaxis, :, :])[0, 0])
    curr_frame = curr_frame[1:]
    curr_frame = np.insert(curr_frame, [SEQ_LENGTH - 1], predicted[-1], axis=0)
predicted1 = model.predict(x_test)
predicted1 = np.reshape(predicted1, (predicted1.size,))

plt.figure(1)
plt.subplot(211)
plt.plot(predicted)
plt.plot(y_test)
plt.subplot(212)
plt.plot(predicted1)
plt.plot(y_test)
plt.show()

简单才是一切的开始,模仿才是一切的开始!

  • 3
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
LSTM(Long Short-Term Memory)是一种常用的循环神经网络(RNN)模型,它可以处理时间序列数据,并且能够捕捉长期依赖关系。在时间序列预测中,LSTM可以用来预测未来的数值或者趋势。 Keras是一个高级神经网络API,它可以在TensorFlow、Theano和CNTK等后端上运行Keras提供了一个简单易用的接口,可以方便地构建和训练深度学习模型。 在Keras中,使用LSTM进行时间序列预测通常需要以下步骤: 1. 准备数据:将时间序列数据转换为可以用于训练的格式,通常是将数据划分为输入序列和输出序列。 2. 定义模型:使用Keras的Sequential模型或者函数式API定义LSTM模型,包括输入层、LSTM层和输出层。 3. 编译模型:使用compile()方法编译模型,指定损失函数、优化器和评估指标等参数。 4. 训练模型:使用fit()方法训练模型,指定训练数据、批次大小、训练轮数等参数。 5. 预测结果:使用predict()方法对新数据进行预测。 下面是一个简单LSTM时间序列预测Keras代码示例: ``` from keras.models import Sequential from keras.layers import LSTM, Dense import numpy as np # 准备数据 data = np.array([...]) # 时间序列数据 look_back = 3 # 输入序列长度 X, Y = [], [] for i in range(len(data)-look_back): X.append(data[i:i+look_back]) Y.append(data[i+look_back]) X = np.array(X) Y = np.array(Y) # 定义模型 model = Sequential() model.add(LSTM(4, input_shape=(look_back, 1))) model.add(Dense(1)) # 编译模型 model.compile(loss='mean_squared_error', optimizer='adam') # 训练模型 model.fit(X, Y, epochs=100, batch_size=1, verbose=2) # 预测结果 new_data = np.array([...]) # 新数据 new_X = new_data.reshape((1, look_back, 1)) result = model.predict(new_X) ``` 在这个示例中,我们使用了一个LSTM层和一个全连接层,输入序列长度为3,输出为1。我们使用均方误差作为损失函数,Adam优化器进行优化。在训练过程中,我们使用了100个训练轮次和批次大小为1。最后,我们使用新数据进行预测,并输出预测结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值