【Python时序预测】基于LSTM实现多变量时间序列预测




import numpy as np
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import LSTM
from tensorflow.keras.layers import Dense
from sklearn.preprocessing import MinMaxScaler
from sklearn.metrics import mean_squared_error
 
# 数据预处理函数
def preprocess_data(data, n_in, n_out=1, drop_end=True, scale=True):
    df = data.copy()
    if drop_end:
        df = df.drop(df.index[-n_out:], axis=0)
    if scale:
        scaler = MinMaxScaler(feature_range=(-1, 1))
        df = scaler.fit_transform(df.values)
    df = df.astype('float32')
    print(df.shape)
    
    X, y = [], []
    for i in range(len(df) - n_in - n_out + 1):
        X.append(df[i:i + n_in, :].reshape((1, n_in, df.shape[1])))
        y.append(df[i + n_in:i + n_in + n_out, :].reshape((1, n_out, df.shape[1])))
    return np.array(X), np.array(y)
 
# 模型定义和训练
def train_model(train_X, train_y, n_epochs, batch_size, n_neurons=50, n_layers=2):
    model = Sequential()
    for i in range(n_layers):
        if i == 0:
            model.add(LSTM(n_neurons, input_shape=(train_X.shape[1], train_X.shape[2]), return_sequences=True))
        else:
            model.add(LSTM(n_neurons, return_sequences=True))
        model.add(Dense(train_y.shape[1], activation='linear'))
    model.compile(loss='mse', optimizer='adam')
    model.fit(train_X, train_y, epochs=n_epochs, batch_size=batch_size, verbose=2, shuffle=False)
    return model
 
# 模型评估
def evaluate_model(model, test_X, test_y):
    preds = model.predict(test_X)
    preds = preds.reshape((preds.size, 1))
    print(mean_squared_error(test_y, preds))
 
# 示例使用
n_in = 10  # 输入序列的长度
n_out = 1  # 输出序列的长度
n_epochs = 100  # 训练的轮数
batch_size = 1  # 批处理大小
n_neurons = 50  # LSTM隐藏层的神经元数
n_layers = 2  # LSTM层的数量
 
# 假设data是一个Pandas DataFrame,包含所有的数据
# 预处理训练集和测试集
train_X, train_y = preprocess_data(data[:-60], n_in, n_out)
test_X, test_y = preprocess_data(data[-60:], n_in, n_out)
 
# 训练模型
model = train_model(train_X, train_y, n_epochs, batch_size, n_neurons, n_layers)
 
# 评估
最后修改于:2024年08月13日 09:40

评论已关闭

推荐阅读

DDPG 模型解析,附Pytorch完整代码
2024年11月24日
DQN 模型解析,附Pytorch完整代码
2024年11月24日
AIGC实战——Transformer模型
2024年12月01日
Socket TCP 和 UDP 编程基础(Python)
2024年11月30日
python , tcp , udp
如何使用 ChatGPT 进行学术润色?你需要这些指令
2024年12月01日
AI
最新 Python 调用 OpenAi 详细教程实现问答、图像合成、图像理解、语音合成、语音识别(详细教程)
2024年11月24日
ChatGPT 和 DALL·E 2 配合生成故事绘本
2024年12月01日
omegaconf,一个超强的 Python 库!
2024年11月24日
【视觉AIGC识别】误差特征、人脸伪造检测、其他类型假图检测
2024年12月01日
[超级详细]如何在深度学习训练模型过程中使用 GPU 加速
2024年11月29日
Python 物理引擎pymunk最完整教程
2024年11月27日
MediaPipe 人体姿态与手指关键点检测教程
2024年11月27日
深入了解 Taipy:Python 打造 Web 应用的全面教程
2024年11月26日
基于Transformer的时间序列预测模型
2024年11月25日
Python在金融大数据分析中的AI应用(股价分析、量化交易)实战
2024年11月25日
AIGC Gradio系列学习教程之Components
2024年12月01日
Python3 `asyncio` — 异步 I/O,事件循环和并发工具
2024年11月30日
llama-factory SFT系列教程:大模型在自定义数据集 LoRA 训练与部署
2024年12月01日
Python 多线程和多进程用法
2024年11月24日
Python socket详解,全网最全教程
2024年11月27日