论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

这篇具有很好参考价值的文章主要介绍了论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

2022 ICML

1 Intro

  • 长时间序列问题是一个研究很广泛的问题
    • RNN以及变体会遇到梯度消失/梯度爆炸,这会在很大程度上限制他们的表现
    • Transformer的方法会导致很高的计算复杂度,以及很大的内存消耗,这也会使得在长时间序列上使用Transformer很吃力
      • 近来有方法优化Transformer,使其计算复杂度降低
      • 但他们大多的思路是少取一些QK 对,这就可能导致信息的丢失,进而影响预测的精准度有
  • 与此同时,使用Transformer的方法,会在一定程度上难以捕获时间序列的整体特征/分布

     文章来源地址https://www.toymoban.com/news/detail-512608.html

    • 论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting
    • 比如上图,不难发现预测的结果和实际值,二者的分布有着一定的差距
    • 这可能由于Transformer使用的是point-wise attention,每个时间点是独立的进行注意力计算和预测的,所以整体的、全局的特征难以维系和建模
  • 这篇论文提出了FedTransformer
    • 在Transformer的架构种使用 周期-趋势 分解 (这一点有点类似AutoFormer)
    • 在谱域中使用Transformer
      • ——>使得Transformer能更好地捕获全局特征
      • ——>在不减少每个点计算attention时看到的其他点数量的基础上,减少复杂度

2 谱域上的时间序列表征

  • 这篇论文的一个重要的问题是,经过离散傅里叶变化后,哪些部分应该得以保留,以表征时间序列
    • 一种方式是保留低频部分,去除高频部分(低频信号表示近似信息,高频信号表示细节信息)
      • ——>这样的话,有一些诸如趋势变化的信息就会被丢失(这是一个高频信号)
    • 另一种方式是全部保留,但是这样的话。很多噪声是高频信号,这会扰乱预测结果
  • 论文通过理论分析,说明从各种频率成分中随机选取一个子集,会得到一个好的时间序列表征 
    • 假设我们有m个时间序列
    • 通过傅里叶变化,我们可以将Xi(t)转化成
    • 将所有时间序列进行转化,我们得到转化矩阵
    • 从d个谱域成分中随机选取s个(s<d),论文通过理论证明可以保留大部分A的信息

3 模型

3.1 输入输出

encoder的输入是I*D(I表示输入的长度,D表示hidden state)

decoder的输入是(I/2+O)*D

【和autoformer的是一样的】

3.2 FEDFormer 架构

和autoformer类似,S是seasonality,trend是趋势

论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

 也是encoder逐步把trend剥离掉;decoder再逐步把trend加回来

 3.3 Fourier Enhanced Structure

3.3.1 DFT

  • DFT将N长的时域sequence转变成N长的谱域sequence
    • 其中每个谱域元素的计算方式为
    • 计算每个谱域元素是一个O(N)的复杂度,那么计算N长的谱域sequence,复杂度是O(n^2)
  • FFT可以将复杂度降至O(nlogn)
    • 每个谱域元素还是O(n)的计算复杂度,但是一半的元素两两对称,利用分治的思路,就是计算O(logn)个谱域元素
  • 这里作者是随机选s个谱域元素(s<<n),每个元素是O(n)的计算复杂度
    • ——>这里DFT的时间复杂度是O(n)

3.3.2 使用傅里叶变化的Frequency Enhanced Block(FEB-f)

  • 首先将输入用线性 映射到
  • 然后将q用傅里叶变化转换至
  • 接着从Q的N个组成部分中 随机选择M个,得到
    • 论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting
  • 然后对 进行映射,
  • 然后对Y进行补零操作,补至
  • 最后对结果进行逆傅里叶操作
    • 论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

    论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting 

     

 3.3.3 使用傅里叶变化的Frequency Enhanced Attention(FEA-f)

论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

  • 在谱域上做attention
  • 论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

 3.3.4 将傅里叶级数替换成小波变化

3.4 混合趋势-周期性分解

论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

  •  F是一系列计算趋势的filter
  • L(x)是用来计算不同trend的权重

3.5 复杂度分析

论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

3.6 和AutoFormer的区别

  • 架构是一样的,也都是encoder逐步把趋势项剥离,decoder逐步把趋势项加回来
  • 尽管AutoFormer中也使用了傅里叶变化,但那时为了加快AutoCorrelation(那篇论文对于self-attention的替代结构)的计算,所以严格意义上讲AutoFormer还是时域上的attention;FedFormer则是谱域上的attention

4 实验 

论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

 

到了这里,关于论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • GFDM笔记【2】:GFDM-Generalized Frequency Division Multiplexing论文阅读

    “广义频分复用(Generalized Frequency Division Multiplexing)” 技术由Gerhard Fettweis等人于2009年首次在论文 \\\"GFDM-Generalized Frequency Division Multiplexing\\\" 中提出,这是一种基于数字多载波调制方案,与 \\\"4G\\\" 中使用的 “正交频分复用(Orthogonal Frequency Division Multiplexing)” 技术相比, \\\"GFDM\\\" 调

    2024年02月06日
    浏览(36)
  • 论文笔记--ERNIE: Enhanced Language Representation with Informative Entities

    标题:ERNIE: Enhanced Language Representation with Informative Entities 作者:Zhengyan Zhang, Xu Han, Zhiyuan Liu, Xin Jiang, Maosong Sun, Qun Liu 日期:2019 期刊:ACL   文章提出了ERNIE(Enhanced Language Representation with Informative Entities),一种可以将外部知识融合进入预训练模型的方法。数值实验表明,ERNI

    2024年02月16日
    浏览(26)
  • 【论文笔记之 PYIN】PYIN, A Fundamental Frequency Estimator Using Probabilistic Threshold Distributions

    本文对 Matthias Mauch 和 Simon Dixon 等人于 2014 年在 ICASSP 上发表的论文进行简单地翻译。如有表述不当之处欢迎批评指正。欢迎任何形式的转载,但请务必注明出处。 论文链接 : https://www.eecs.qmul.ac.uk/~simond/pub/2014/MauchDixon-PYIN-ICASSP2014.pdf 提出一种改进的 YIN 算法— PYIN ,其估计基

    2024年04月14日
    浏览(37)
  • 【论文阅读】基于深度学习的时序预测——FEDformer

    系列文章链接 论文一:2020 Informer:长时序数据预测 论文二:2021 Autoformer:长序列数据预测 论文三:2022 FEDformer:长序列数据预测 论文四:2022 Non-Stationary Transformers:非平稳性时序预测 论文五:2022 Pyraformer:基于金字塔图结构的时序预测 论文六:2023 Crossformer:多变量时序预

    2024年02月13日
    浏览(27)
  • 论文阅读《thanking frequency fordeepfake detection》

    项目链接:https://github.com/yyk-wew/F3Net 这篇论文从频域的角度出发,提出了频域感知模型用于deepfake检测的模型 整体架构图: 1.FAD: 频域感知分解,其实就是利用DCT变换,将空间域转换为频域,变换后的图像低频信息在左上角,高频信息在右下角,同时高频表示细粒度的伪造痕

    2024年02月20日
    浏览(28)
  • Transformer 论文学习笔记

    重新学习了一下,整理了一下笔记 论文 :《Attention Is All You Need》 代码 :http://nlp.seas.harvard.edu/annotated-transformer/ 地址 :https://arxiv.org/abs/1706.03762v5 翻译 :Transformer论文翻译 特点 : 提出一种不使用 RNN、CNN,仅使用注意力机制的新模型 Transformer; 只关注句内各 token 之间的关

    2024年02月14日
    浏览(32)
  • [论文笔记] Transformer-XL

            这篇论文提出的 Transformer-XL 主要是针对 Transformer 在解决  长依赖问题中受到固定长度上下文的限制 ,如 Bert 采用的 Transformer 最大上下文为 512(其中是因为计算资源的限制,不是因为位置编码,因为使用的是绝对位置编码正余弦编码)。         Transformer-X

    2024年03月12日
    浏览(58)
  • 【论文+代码】1706.Transformer简易学习笔记

    Transformer 论文: 1706.attention is all you need! 唐宇迪解读transformer:transformer2021年前,从NLP活到CV的过程 综述:2110.Transformers in Vision: A Survey 代码讲解1: Transformer 模型详解及代码实现 - 进击的程序猿 - 知乎 代码讲解2:: Transformer代码解读(Pytorch) - 神洛的文章 - 知乎 输入:词向量(

    2024年02月09日
    浏览(32)
  • 【论文笔记】Attention和Visual Transformer

    Attention机制在相当早的时间就已经被提出了,最先是在计算机视觉领域进行使用,但是始终没有火起来。Attention机制真正进入主流视野源自Google Mind在2014年的一篇论文\\\"Recurrent models of visual attention\\\"。在该文当中,首次在RNN上使用了Attention进行图像分类 。 然而,Attention真正得到

    2024年02月07日
    浏览(32)
  • 【论文笔记】Video Vision Transformer(ViViT)

    以下是我看了ViViT这篇文章的理解,如果理解有误,欢迎各位大佬指正。 原文:https://arxiv.org/abs/2103.15691 代码:https://github.com/google-research/scenic. 目录 一.介绍 二.简单介绍ViT原理  三.Video Vision Transformer原理(ViViT)  1.Tublet Embedding 2.“central  frame initialisation”3D滤波器生成方法

    2024年04月27日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包