文档详情

基于深度学习的时间序列预测方法研究.pdf

发布:2025-05-03约10.24万字共65页下载文档
文本预览下载声明

摘要

随着信息技术和数据采集能力的迅猛发展,海量的时间序列数据不断涌现并

被详细记录。由于时间序列在众多实际应用中占据着重要地位,因此也涌现了许

(TimeSeriesForecastingTSF)

多时间序列预测,的方法。近年来,由于基于

Transformer框架的方法在处理长距离依赖关系时的优势,使其在时间序列预测

任务上的研究备受关注。然而随着输入长度的增加,Transformer模型的复杂度

也会飞速增长,这也导致其在处理长输入的时间序列预测任务(LongSequence

Time-SeriesForecasting,LSTF)时出现内存瓶颈问题。为了缓解此问题,研究者

提出使用稀疏注意力网络来降低内存成本。尽管在性能上取得了显著的改进,但

这种方法可能不可避免地导致数据点之间某些依赖关系的丢失,尤其是在处理具

有复杂相关性的数据时。这可能导致信息利用率不足,从而降低预测的准确性。

此外,时间序列数据容易受到各种干扰因素的影响,如设备故障和不完整的

数据采集,这些缺失的数据可能严重妨碍对时序数据的准确建模。针对这些问题,

本文的主要研究内容包括:

(1)针对稀疏注意力网络的时间序列预测模型其利用率不足的问题,本文提

出了一种双层注意力网络的时间序列预测模型(Double-layerEfficientProbSparse

Self-attentionTransformer,DEPformer)。首先,采用稀疏注意力网络来筛选点积权

重较高的项作为注意力的主要权重,采用高效注意力网络(EfficientAttention)来提

取全局上下文向量。通过提取的全局上下文信息来优化稀疏注意力网络的主要向

量其对应的注意力权重,从而改善单独使用稀疏注意力网络导致的信息利用率低

的问题。在上一步的基础上,在稀疏注意力网络中也融入了提取全局上下文向量

的操作,称为融合全局稀疏注意力机制的双层网络。这也使其在处理长距离的信

息依赖关系时更加高效,进而也提高了预测效果。最后,在多个公共和真实数据

集上的实验证明了DEPformer模型的预测有效性和优越性。

(2)针对时间序列数据的缺失问题,本文提出了一个用于多维时序缺失值的

填补模型WGAN-DEPformer。该模型基于WGAN-GP(WassersteinGANwith

GradientPenalty)的框架,通过生成器生成逼真数据,通过判别器评估输入数据的

真实性。两者互相竞争,最终使得生成器生成的数据趋向逼真。另外,通过利用

DEPformer的高利用率的双层注意力模块来构建生成器和判别器,以此来处理复

杂时序数据之间的依赖关系。最后,根据不同缺失率下的实验结果证明了

WGAN-DEPformer在多维时间序列缺失值填补任务上的优越性。

关键词:数据挖掘,时间序列预测,注意力机制,数据填补,生成对抗网络

Abstract

Withtherapidadvancementofinformationtechnologyandtheswift

developmentofdatacollectioncapabilities,vastamountsoftimeseriesdataare

continuouslyemergingandmeticulouslyrecorded.Giventhepivotalrolethattime

seriesplaysinnumerouspracticalapplications,aplethoraofmethodsfortimeseries

forecasting(TimeSeriesForecasting,TSF)havealsosurfaced.Inrecentyears,

methodsbasedontheTransformerframeworkhavegainedsignificantattentiondueto

theiradvantagesinmodelinglong-termdependenciesintimeseriesdata.However,

withtheincreaseininp

显示全部
相似文档