I. 前语
前面现已写了许多关于时间序列猜测的文章,这些文章一共采用了LSTM、ANN以及CNN三种模型来分别进行时间序列猜测。众所周知,CNN提取特征的能力十分强,因而现在不少论文将CNN和LSTM结合起来进行时间序列猜测。本文将使用PyTorch来建立一个简单的CNN-LSTM混合模型完成负荷猜测。
II. CNN-LSTM
CNN-LSTM模型建立如下:
class CNN_LSTM(nn.Module):
def __init__(self, args):
super(CNN_LSTM, self).__init__()
self.args = args
self.relu = nn.ReLU(inplace=True)
# (batch_size=30, seq_len=24, input_size=7) ---> permute(0, 2, 1)
# (30, 7, 24)
self.conv = nn.Sequential(
nn.Conv1d(in_channels=args.in_channels, out_channels=args.out_channels, kernel_size=3),
nn.ReLU(),
nn.MaxPool1d(kernel_size=3, stride=1)
)
# (batch_size=30, out_channels=32, seq_len-4=20) ---> permute(0, 2, 1)
# (30, 20, 32)
self.lstm = nn.LSTM(input_size=args.out_channels, hidden_size=args.hidden_size,
num_layers=args.num_layers, batch_first=True)
self.fc = nn.Linear(args.hidden_size, args.output_size)
def forward(self, x):
x = x.permute(0, 2, 1)
x = self.conv(x)
x = x.permute(0, 2, 1)
x, _ = self.lstm(x)
x = self.fc(x)
x = x[:, -1, :]
return x
可以看到,该CNN-LSTM由一层一维卷积+LSTM组成。
通过PyTorch建立CNN完成时间序列猜测(风速猜测)咱们知道,一维卷积的原始界说如下:
nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)
本文模型的一维卷积界说:
nn.Conv1d(in_channels=args.in_channels, out_channels=args.out_channels, kernel_size=3)
这儿in_channels的概念相当于自然语言处理中的embedding,因而输入通道数为7,表明负荷+其他6个环境变量;out_channels的可以随意设置,本文设置为32;kernel_size设置为3。
PyTorch中一维卷积的输入尺度为:
input(batch_size, input_size, seq_len)=(30, 7, 24)
而通过数据处理后得到的数据维度为:
input(batch_size, seq_len, input_size)=(30, 24, 7)
因而,咱们需求进行维度交流:
x = x.permute(0, 2, 1)
交流后的输入数据将契合CNN的输入。
一维卷积中卷积操作是针对seq_len维度进行的,也就是(30, 7, 24)中的最终一个维度。因而,通过:
nn.Conv1d(in_channels=args.in_channels, out_channels=args.out_channels, kernel_size=3)
后,数据维度将变为:
(30, 32, 24-3+1)=(30, 32, 22)
第一维度的batch_size不变,第二维度的input_size将由in_channels=7变成out_channels=32,第三维度进行卷积变成22。
然后通过一个最大池化变成:
(30, 32, 22-3+1)=(30, 32, 20)
此刻的(30, 32, 20)将作为LSTM的输入。由于在LSTM中咱们设置了batch_first=True,因而LSTM可以接收的输入维度为:
input(batch_size, seq_len, input_size)
而经卷积池化后得到的数据维度为:
input(batch_size=30, input_size=32, seq_len=20)
因而,同样需求进行维度交流:
x = x.permute(0, 2, 1)
然后就是比较惯例的LSTM输入输出的,不再细说。
因而,完好的forward函数如下所示:
def forward(self, x):
x = x.permute(0, 2, 1)
x = self.conv(x)
x = x.permute(0, 2, 1)
x, _ = self.lstm(x)
x = self.fc(x)
x = x[:, -1, :]
return x
III. 代码完成
3.1 数据处理
咱们根据前24个时间的负荷以及该时间的环境变量来猜测接下来4个时间的负荷,这儿采用了直接多输出策略,调整output_size即可调整输出步长。
3.2 模型练习/测试
和前文一致。
3.3 试验结果
简单练习30轮,前24个时间猜测未来4个时间,MAPE为6.88%:
IV. 源码及数据
后边将连续揭露~