深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)
PyTorch搭建LSTM实现时间序列预测(负荷预测)
PyTorch搭建LSTM实现多变量时间序列预测(负荷预测)
PyTorch搭建双向LSTM实现时间序列预测(负荷预测)
PyTorch搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
PyTorch搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
PyTorch搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
PyTorch搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
PyTorch搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
PyTorch中实现LSTM多步长时间序列预测的几种方法总结(负荷预测)
PyTorch-LSTM时间序列预测中如何预测真正的未来值
PyTorch搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
PyTorch搭建ANN实现时间序列预测(风速预测)
PyTorch搭建CNN实现时间序列预测(风速预测)
PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
PyTorch搭建Transformer实现多变量多步长时间序列预测(负荷预测)
PyTorch时间序列预测系列文章总结(代码使用方法)
TensorFlow搭建LSTM实现时间序列预测(负荷预测)
TensorFlow搭建LSTM实现多变量时间序列预测(负荷预测)
TensorFlow搭建双向LSTM实现时间序列预测(负荷预测)
TensorFlow搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
TensorFlow搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
II. 多模型滚动预测
所谓多模型滚动预测:还是前10个预测后3个为例:首先需要按照多模型单步预测的方式训练3个模型,然后模型1利用[1…10]预测[11’],然后模型2利用[2…10 11’]预测[12’],最后由模型3利用[3…10 11’ 12’]预测[13’]。
III. 代码实现
3.1 数据处理
我们根据前24个时刻的负荷以及该时刻的环境变量来预测接下来12个时刻的负荷(步长pred_step_size可调)。
数据处理代码和前面的多模型单步预测一致。简单来说,如果需要利用前24个值预测接下来12个值,那么我们需要生成12个数据集。
3.2 模型搭建
模型和之前的文章一致:
class LSTM(keras.Model):
def __init__(self, args):
super(LSTM, self).__init__()
self.lstm = Sequential()
for i in range(args.num_layers):
self.lstm.add(layers.LSTM(units=args.hidden_size, input_shape=(args.seq_len, args.input_size),
activation='tanh', return_sequences=True))
self.fc1 = layers.Dense(64, activation='relu')
self.fc2 = layers.Dense(args.output_size)
def call(self, data, training=None, mask=None):
x = self.lstm(data)
x = self.fc1(x)
x = self.fc2(x)
return x[:, -1:, :]
3.3 模型训练/测试
模型训练与多模型单步预测一致。
模型测试与单步滚动预测有些类似,但每一步都由不同的模型来进行预测:
def mms_rolling_test(args, Dte, PATHS, M):
pred = []
y = []
print('loading models...')
models = []
for path in PATHS:
if args.bidirectional:
model = BiLSTM(args)
else:
model = LSTM(args)
model.load_weights(path)
models.append(model)
Dte = [x for x in iter(Dte)]
Dte = list_of_groups(Dte, args.pred_step_size)
for sub_item in tqdm(Dte):
sub_pred = []
for seq_idx, (seq, label) in enumerate(sub_item, 0):
model = models[seq_idx]
label = label.numpy().flatten().tolist()
y.extend(label)
if seq_idx != 0:
seq = seq.cpu().numpy().tolist()[0]
if len(sub_pred) >= len(seq):
for t in range(len(seq)):
seq[t][0] = sub_pred[len(sub_pred) - len(seq) + t]
else:
for t in range(len(sub_pred)):
seq[len(seq) - len(sub_pred) + t][0] = sub_pred[t]
else:
seq = seq.cpu().numpy().tolist()[0]
seq = [seq]
seq = tf.data.Dataset.from_tensor_slices(seq)
seq = seq.batch(1, drop_remainder=False).shuffle(1).prefetch(1)
seq = [x for x in iter(seq)][0]
y_pred = model(seq)
y_pred = y_pred.numpy().flatten().tolist()
sub_pred.extend(y_pred)
pred.extend(sub_pred)
y, pred = np.array(y), np.array(pred)
m, n = M[0], M[1]
y = (m - n) * y + n
pred = (m - n) * pred + n
print('mape:', get_mape(y, pred))
plot(y, pred)
3.4 实验结果
前24个预测未来12个,每个模型训练30轮,效果很差,MAPE为12.69%,还需要进一步完善。
IV. 源码及数据
后面将陆续公开~
- 9.4w
-
superZidan
ChatGPT
React.js
- 1235
-
星期一研究室
Vue.js
掘金·金石计划