时间序列预测模型实战案例(Xgboost)(Python)(机器学习)图解机制原理实现时间序列预测和分类(附一键运行代码资源下载和代码讲解)
import numpy as np
import xgboost as xgb
from matplotlib import pyplot as plt
from mpl_toolkits.axes_grid1 import make_axes_locatable
# 生成模拟数据集
np.random.seed(10)
N = 1000
data = np.random.rand(N)
data = np.sort(data)
data = np.cos(data*np.pi)*10.0 + np.random.rand(N)*2.0
# 创建时间序列
time = np.arange(1, N+1)
# 创建训练和测试数据
train_data = data[:int(N*0.7)]
train_time = time[:int(N*0.7)]
test_data = data[int(N*0.7):]
test_time = time[int(N*0.7):]
# XGBoost模型参数
params = {
'eta': 0.1,
'max_depth': 5,
'objective': 'reg:linear',
'subsample': 0.5,
'colsample_bytree': 0.5,
'min_child_weight': 1,
'silent': 1
}
# 训练数据和测试数据的维度
train_dim = len(train_data)
test_dim = len(test_data)
# 初始化训练和测试的标签
train_labels = np.sin(train_data*np.pi)
test_labels = np.sin(test_data*np.pi)
# 转换数据为XGBoost需要的格式
train_set = xgb.DMatrix(train_data.reshape((train_dim, -1)), label=train_labels)
test_set = xgb.DMatrix(test_data.reshape((test_dim, -1)), label=test_labels)
# 训练模型
num_round = 100
model = xgb.train(params, train_set, num_round)
# 进行预测
preds = model.predict(test_set)
# 绘制原始数据和预测数据
plt.figure(figsize=(12, 6))
ax = plt.subplot(111)
ax.plot(test_time, test_labels, 'r-', lw=2, label='Test Label')
ax.plot(test_time, preds, 'b-', lw=2, label='Prediction')
ax.legend(loc='upper left')
ax.set_xlabel('Time')
ax.set_ylabel('Value')
ax.set_title('XGBoost Prediction Example')
plt.show()
这段代码首先生成了一个模拟的时间序列数据集,并将其分为训练集和测试集。然后,使用XGBoost库训练了一个模型,并对测试集进行了预测。最后,代码使用matplotlib库将原始数据和预测结果绘制在同一张图上,以便观察和理解模型的预测性能。
评论已关闭