论文笔记-时序预测-FEDformer

这篇具有很好参考价值的文章主要介绍了论文笔记-时序预测-FEDformer。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文笔记-时序预测-FEDformer
论文标题:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting
论文链接:
https://arxiv.org/abs/2201.12740
代码链接:
https://github.com/DAMO-DI-ML/ICML2022-FEDformer

摘要

尽管基于变压器的方法显著改善了长期序列预测的最新结果,但它们不仅计算成本高,更重要的是,无法捕捉时间序列的全局视图(例如总体趋势)。为了解决这些问题,我们提出将Transformer与季节趋势分解方法相结合,其中分解方法捕捉时间序列的全局轮廓,而Transformer捕捉更详细的结构。为了进一步提高Transformer的长期预测性能,我们利用了大多数时间序列倾向于在众所周知的基础上(如傅立叶变换)具有稀疏表示的事实,开发了频率增强Transformer。除了更有效之外,被称为频率增强分解变压器({f FEDformer})的方法比标准变压器效率更高,其复杂度与序列长度成线性关系。我们对6个基准数据集的实证研究表明,与最先进的方法相比,FEDformer在多变量和单变量时间序列中分别可以减少14.8%和22.6%的预测误差。

主要贡献

frequency enhanced decomposed Transformer
Fourier enhanced blocks and Wavelet enhanced blocks

模型结构

论文笔记-时序预测-FEDformer
Frequency Enchanced Block(FEB)和 Frequency Enhanced Attention(FEA)具有相同的流程:频域投影 -> 采样 -> 学习 -> 频域补全 -> 投影回时域

无论多长的信号输入,模型只需要在频域保留极少的点,就可以恢复大部分的信息

论文笔记-时序预测-FEDformer
论文笔记-时序预测-FEDformer
傅立叶基具有全局性而小波基具有局部性。小波版的 FEDformer 可以在更复杂的数据集上得到更优的效果。但小波版的 FEDformer 运行时间也会更长。

论文笔记-时序预测-FEDformer
论文笔记-时序预测-FEDformer

实验

论文笔记-时序预测-FEDformer

论文笔记-时序预测-FEDformer
论文笔记-时序预测-FEDformer
采样实验
论文笔记-时序预测-FEDformer
速度和内存
论文笔记-时序预测-FEDformer
内存占用和运行时间比Informer和Autoformer还是要多一些的。

总结

针对长时间序列预测问题,提出了基于频域分解的 FEDformer 模型。大幅提高了预测精度和模型运行效率。提出了一种基于傅立叶/小波变换的模块,通过在频域进行固定数量的随机采样,使得模型达到线性复杂度同时提高精度。文章来源地址https://www.toymoban.com/news/detail-409557.html

到了这里,关于论文笔记-时序预测-FEDformer的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【论文阅读】基于深度学习的时序预测——Autoformer

    系列文章链接 论文一:2020 Informer:长时序数据预测 论文二:2021 Autoformer:长序列数据预测 论文三:2022 FEDformer:长序列数据预测 论文四:2022 Non-Stationary Transformers:非平稳性时序预测 论文五:2022 Pyraformer:基于金字塔图结构的时序预测 论文六:2023 Crossformer:多变量时序预

    2024年02月13日
    浏览(44)
  • 【论文阅读】基于深度学习的时序预测——Crossformer

    系列文章链接 论文一:2020 Informer:长时序数据预测 论文二:2021 Autoformer:长序列数据预测 论文三:2022 FEDformer:长序列数据预测 论文四:2022 Non-Stationary Transformers:非平稳性时序预测 论文五:2022 Pyraformer:基于金字塔图结构的时序预测 论文六:2023 Crossformer:多变量时序预

    2024年02月13日
    浏览(47)
  • 【论文阅读】基于深度学习的时序预测——Pyraformer

    系列文章链接 论文一:2020 Informer:长时序数据预测 论文二:2021 Autoformer:长序列数据预测 论文三:2022 FEDformer:长序列数据预测 论文四:2022 Non-Stationary Transformers:非平稳性时序预测 论文五:2022 Pyraformer:基于金字塔图结构的时序预测 论文六:2023 Crossformer:多变量时序预

    2024年02月13日
    浏览(45)
  • 【论文阅读】基于深度学习的时序预测——Non-stationary Transformers

    系列文章链接 论文一:2020 Informer:长时序数据预测 论文二:2021 Autoformer:长序列数据预测 论文三:2022 FEDformer:长序列数据预测 论文四:2022 Non-Stationary Transformers:非平稳性时序预测 论文五:2022 Pyraformer:基于金字塔图结构的时序预测 论文六:2023 Crossformer:多变量时序预

    2024年02月13日
    浏览(42)
  • 时序动作检测/定位(Temporal Action Detection)(Temporal Action Localization)-约40篇论文阅读笔记

    1 时序动作检测(Temporal Action Detection)(Temporal Action Localization)-综述 介绍1 介绍2 介绍3(老) 综述 2 数据集介绍 THUMOS14(时序动作检测)(本实验采用) THUMOS14测试集(用于可视化) 单个视频 THUMOS14的np文件 THUMOS14的光流文件(google) 或者 THUMOS14的光流文件(腾讯云) EPIC-KITC

    2024年02月09日
    浏览(107)
  • 【论文笔记】基于案例推理的驾驶员超速行为预测方法

    ​博客声明:本文仅为个人论文阅读笔记,大部分原文对照的中文为翻译而来,只对其中错误明显的部分作了修改。其他一些个人理解不到位或有误的地方也尽请见谅。 标题原文: Predicting Drivers’ Speeding Behaviour: A Case-based Reasoning Approach 论文来源: The 7th International Conferenc

    2024年02月01日
    浏览(39)
  • 时序分析 49 -- 贝叶斯时序预测(一)

        时序预测在统计分析和机器学习领域一直都是一个比较重要的话题。在本系列前面的文章中我们介绍了诸如ARIMA系列方法,Holt-Winter指数平滑模型等多种常用方法,实际上这些看似不同的模型和方法之间都具有千丝万缕的联系,包括我们一直没有涉及的最复杂的模型LST

    2024年02月01日
    浏览(29)
  • 基于PSO优化的GRU多输入时序回归预测(Matlab)粒子群优化门控循环单元神经网络时序回归预测

    目录 一、程序及算法内容介绍: 基本内容: 亮点与优势:  二、实际运行效果:  三、部分程序: 四、完整代码+数据分享下载: 本代码基于 Matlab 平台编译,将 PSO (粒子群算法)与 GRU (门控循环单元神经网络)结合,进行 多输入数据回归预测 输入训练的数据包含 8个特征

    2024年02月19日
    浏览(47)
  • 时序预测 | MATLAB实现Hamilton滤波AR时间序列预测

    预测效果 基本介绍 预测在很大程度上取决于适合周期的模型和所采用的预测方法,就像它们依赖于过滤器提取的周期一样。标准 Hodrick-Prescott 滤波器使用输入序列的过去和未来值计算双边中心差来估计时间 t 的二阶导数。 因此,过滤器通常应用于历史数据。 然而,这种非因

    2024年02月17日
    浏览(56)
  • SSA-LSTM多变量时序预测 基于麻雀搜索算法-长短期记忆神经网络多变量时序预测 (多输入单输出)

    效果一览 文章概述 SSA-LSTM多变量时序预测 基于麻雀搜索算法-长短期记忆神经网络多变量时序预测 (多输入单输出) 部分源码

    2024年04月23日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包