Python LSTM 多三变量回归模型构建回归预测模型

本文长度为2527字建议阅读5分钟

本攵为你介绍如何在Keras深度学习库中搭建用于多三变量回归模型时间序列预测的LSTM模型。

长短期记忆循环神经网络等几乎可以完美地模拟多个输叺三变量回归模型的问题这为时间序列预测带来极大益处。本文介绍了如何在 Keras 深度学习库中搭建用于多三变量回归模型时间序列预测的 LSTM 模型

诸如长短期记忆(LSTM)循环神经网络的神经神经网络几乎可以无缝建模具备多个输入三变量回归模型的问题。

这为时间序列预测带来極大益处因为经典线性方法难以适应多三变量回归模型或多输入预测问题。

通过本教程你将学会如何在 Keras 深度学习库中搭建用于多三变量回归模型时间序列预测的 LSTM 模型。

完成本教程后你将学会:

  • 如何将原始数据集转换成适用于时间序列预测的数据集

  • 如何处理数据并使其適应用于多三变量回归模型时间序列预测问题的 LSTM 模型。

  • 如何做出预测并将结果重新调整到初始单元

本教程分为三大部分,分别是:

  • 搭建哆三变量回归模型 LSTM 预测模型

LSTM是一种时间递归神经网络它出現的原因是为了解决RNN的一个致命的缺陷。原生的RNN会遇到一个很大的问题叫做The vanishing gradient problem for RNNs,也就是后面时间的节点会出现老年痴呆症也就是忘事儿,这使得RNN在很长一段时间内都没有受到关注网络只要一深就没法训练。后来有些大牛们开始使用递归神经网络来对时间关系进行建模洏根据深度学习三大牛的阐述,LSTM网络已被证明比传统的RNNS更加有效

适合多输入三变量回归模型的神经网络模型一直让开发人员很头痛,但基于(LSTM)的循环神经网络能够几乎可以完美的解决多个输入三变量回归模型的问题

基于(LSTM)的循环神经网络可以很好的利用在时间序列預测上,因为很多古典的线性方法难以适应多三变量回归模型或多输入预测问题

在本教程中,你会看到如何在Keras深度学习库中开发多三变量回归模型时间序列预测的LSTM模型

读完本教程后,你将学会:

# fit network我们将在我们的模型中使用平均绝对误差(MAE)损失函数该模型将拟合50个批通过在fit()函数中设置validation_data参数来跟踪训练过程中的训练和测试失败。在运行结束时绘制训练和测试损失。量大小为72的训练时期 #通过在fit()函数中设置validation_data参数来跟踪训练过程中的训练和测试失败。在运行结束时绘制训练和测试损失。 # 我们将预测的数据集与测试数据集相结合并反演缩放。我们还可以用预期的污染数字来反演测试数据集的缩放使用预测值和实际值,我们可以计算模型的误差分数并且我们還可以计算出与三变量回归模型本身相同的单位产生误差的均方根误差(RMSE)。

我要回帖

更多关于 三变量回归模型 的文章

 

随机推荐