700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > 深度学习多变量时间序列预测:Encoder-Decoder LSTM算法构建时间序列多变量模型预测

深度学习多变量时间序列预测:Encoder-Decoder LSTM算法构建时间序列多变量模型预测

时间:2022-01-27 01:15:33

相关推荐

深度学习多变量时间序列预测:Encoder-Decoder LSTM算法构建时间序列多变量模型预测

深度学习多变量时间序列预测:Encoder-Decoder LSTM算法构建时间序列多变量模型预测交通流量+代码实战

LSTM是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。在自然语言处理、语言识别等一系列的应用上都取得了很好的效果。

《Long Short Term Memory Networks with Python》是澳大利亚机器学习专家Jason Brownlee的著作,里面详细介绍了LSTM模型的原理和使用。

序列预测问题通常涉及预测真实序列中的下一个值或者输出输入序列的类标签。这通常被构造为一个输入时间步长序列到一个输出时间步长(例如,one-to-one)或者多个输入时间步长到一个输出时间步长(many-to-many)类型的序列预测问题。

有一种更具挑战性的序列预测问题,它以序列作为输入,需要序列预测作为输出。这些被称为序列到序列预测问题,或者简称为seq2seq问题。使这些问题具有挑战性的一个建模问题是输入和输出序列的长度可能变化。由于存在多个输入时间步长和多个输出时间步长,这种形式的问题被称为many-to-many序列预测问题。

seq2seq预测问题的一种被证明是非常有效的方法被称为Encoder-Decoder LSTM。该体系结构包括两个模型:一个用于读取输入序列并将其编码成一个固定长度的向量,另一个用于解码固定长度的向量并输出预测序列。模型的使用相应地给出了该体系结构的名字——Encoder-Decoder LSTM,专门针对seq2seq问题而设计。

Encoder-Decoder LSTM是为处理自然语言处理问题而开发的,它显示了-of-the-art的性能,特别是在文本翻译领域称为统计机器翻译。这种体系结构的创新是在模型的最核心的部分使用了固定大小的内部表示,这里输入序列被读取并且输出序列从中被读取。由于这个原因,该方法被称

深度学习多变量时间序列预测:Encoder-Decoder LSTM算法构建时间序列多变量模型预测交通流量+代码实战

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。