论文笔记 | PromptCast: A New Prompt-based Learning Paradigm for Time Series Forecasting

这篇具有很好参考价值的文章主要介绍了论文笔记 | PromptCast: A New Prompt-based Learning Paradigm for Time Series Forecasting。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


前言

这篇论文的核心思想就是把原始的时序数据转换成文本提示,对大模型进行微调,通过对话的方式进行预测。
笔者是根据原文逐一翻译并阅读,文章可能有点长,有需要的可以直接看对应部分。这也是笔者第一次分享论文笔记,有不好的地方还请读者多见谅。

Paper:https://arxiv.org/abs/2210.08964
Code :https://github.com/HaoUNSW/PISA
参考解读 知乎:https://zhuanlan.zhihu.com/p/673922129


一、Abstract

原文翻译:
本文提出了时间序列预测的新视角。在现有的时间序列预测方法中,模型以数值序列作为输入,以产量数值作为输出。现有的SOTA模型主要基于Transformer体系结构,并使用多种编码机制进行了修改,以便将历史数据周围的上下文和语义结合起来。受预训练语言基础模型成功的启发,我们提出了一个问题,即这些模型是否也可以适用于解决时间序列预测。
因此,我们提出了一种新的预测范式:基于提示的时间序列预测(PromptCast)。在这个新颖的任务中,数字输入和输出被转换成提示,预测任务以句子对句子的方式框架,使得直接应用语言模型进行预测成为可能。为了支持和促进这项任务的研究,我们还提出了一个大型数据集(PISA),其中包括三个现实世界的预测场景。我们评估了不同的基于数字的SOTA预测方法和语言生成模型。各种预测设置的基准测试结果表明,基于语言生成模型的PromptCast是一个很有前途的研究方向。
此外,与传统的基于数值的预测相比,PromptCast在零采样设置下表现出更好的泛化能力。

二、Introduction

背景

时间序列预测是一个研究密集型的领域,特别是随着各种深度学习框架的应用越来越多,如基于LSTM、基于Temporal Convolutional Network (TCN)和Transformer的模型。最近,我们在自然语言处理(NLP)领域见证了大规模预训练模型的快速增长,然而,我们也注意到,大模型主要局限于NLP和CV领域。
提出问题:是否可以利用大规模预训练的基础模型,并使这些模型适应于预测时间序列。为了研究这个问题,在本文中,我们正式引入了一个新的任务:基于提示的时间序列预测(PromptCast)。

概念框图

promptcast: a new prompt-based learning paradigm for time series forecasting,论文阅读,语言模型现有的研究方法,包括最先进的基于Transformer的预测模型可以简化为如图1(a)所示,将时序数据(数值)输入Transformer模型中通过编码解码获得预测结果。
相反,本文提出的基于提示的预测(图1 (b))的输入和输出是自然语言句子。这种范式的改变使得可以利用语言生成模型进行预测。

贡献

我们的贡献有三个方面:
(1)我们提出了一种新的基于提示的预测范式,它不同于现有的预测方法。这是第一次以自然语言生成的方式解决一般时间序列预测问题。
(2)针对新引入的任务,我们发布了一个包含311,932个数据实例的大规模数据集(PISA)。该数据集涵盖了不同的时间序列预测场景。
(3)我们在拟议的PISA数据集上开发了一个基准(我们的基准数据和代码可在https:// github.com/HaoUNSW/PISA获得)。它评估了最先进的基于数字的预测方法和流行的语言生成模型。

三、DATASET DESIGN AND DESCRIPTION

论文的关于数据集这一章主要包括:
(1)预处理以数字格式给出的原始数据(原始数据),用于预测任务设置(第III-A节);
(2)将数字数据转换为带有提示的自然语言输入/输出格式(第III-B节)。我们还描述了特征和统计数据(第III-C节)

Data Sources and Processing

数据集来自不同领域的三个现实世界预测场景(PISA数据集的3个子集):天气预报、能源消耗预测和人类流动性预测。
City Temperature (CT):全球多个城市的日平均温度(以华氏度为单位)。该数据集是随机抽取的110个国际城市。
Electricity Consumption Load (ECL):原始数据包括321个用户的用电量(千瓦时)。我们排除了记录不完整的用户,并随机选择了50个数据完整的用户作为整个集合,每个选定用户的每小时使用值被合并为每日使用数据。
SafeGraph Human Mobility Data (SG): 记录的每日访问POI的访客数,随机选择了324个记录完整的POI15个月的访客数。
详细数据介绍,以及训练集、验证集、测试集划分(7:1:2)可以看下表
promptcast: a new prompt-based learning paradigm for time series forecasting,论文阅读,语言模型
输入序列长度为15,输出为1,(前15个数据预测后1个数据)
为了区分用于数值方法的数值数据和用于语言模型的基于语言的数据集,由上述滑动窗口处理的数值序列称为PISA-numerical,而另一个称为 PISA-prompt (参见下一小节)。

Template-Based Prompting

使用基于模板的描述是实现数据到文本转换的一种有效且高效的方法。在这项工作中,我们明确地为三个子集引入了三个模板,表1列出了模板和相应的示例。
promptcast: a new prompt-based learning paradigm for time series forecasting,论文阅读,语言模型
模板由两个主要部分组成:
输入提示符:包括历史观测的描述和预测目标时间步长的指标,可以分为上下文部分和问题部分。上下文提供了用于预测的历史信息,问题部分可以看作是关于未来的输入查询。
输出提示符:处理所需的预测值,输出提示符是对问题作出响应的基本事实答案(用作训练或评估的基础真值标签)基于模板和处理过的数字序列,然后生成pisa提示符。

从官方代码中查看数据集(以CT为例)

  • 输入:
From May 01, 2019, Wednesday to May 15, 2019, Wednesday, the average temperature of region 1 was 54, 58, 53, 59, 56, 58, 58, 63, 57, 63, 65, 53, 46, 48, 56 degree on each day. What is the temperature going to be on May 16, 2019, Thursday?
  1. 输出:
The temperature will be 64 degree.

四、BENCHMARK

在本节中,我们将对提议的PromptCast任务进行基准测试研究和分析。通过对已建立的PISA数据集进行实验,我们旨在解决以下两个主要研究问题:
RQ1:我们可以使用语言生成模型来预测时间序列吗?与传统的基于数字的时间序列预测方法相比,我们的PromptCast的性能如何?
RQ2:使用提示预测时间序列以及使用语言生成模型是否可以获得更好的泛化能力?

Evaluation Metrics

首先是将数据集数值变为文本(从生成的句子中提取预测的数值),引入缺失率作为一个评估指标,定义为 ( n t e s t − n d e c o d e d ) / n t e s t × 100 % ({n_{{\rm{test}}}} - {n_{{\rm{decoded}}}})/{n_{{\rm{test}}}} \times 100\% (ntestndecoded)/ntest×100%其中 n t e s t {n_{{\rm{test}}}} ntest n d e c o d e d {n_{{\rm{decoded}}}} ndecoded分别是测试集中实例的总数,以及能够成功解码预测值的生成实例的数量。
在提取预测数值后,对PromptCast任务的评估将类似于传统的基于数值的预测方法的评估。
指标:均方根误差(RMSE)和平均绝对误差(MAE)

Baselines

  1. 我们在我们的PISA数据集(即PISA-prompt)上测试了10个流行的自然语言生成模型的性能。这些语言模型是T5、Bart、BERT、RoBERTa、Electra、Bigbird、ProphetNet、LED、blendbot和Pegasus。

为了进行比较(RQ1),还包括传统数值范式预测方法在PISA-numerical上的表现。

  1. 我们考虑了3种朴素预测方法:Copy Yesterday(CY), Historical Average (HA), and Copy Last Week (CLW).
  2. 还考虑了3种基本的数值预测方法:AutoARIMA、LSTM和时间卷积网络(TCN)。
  3. 还包括基于Transformer的预测方法,包括vanilla Transformer、最先进的Informer、Autoformer和FEDformer。

Implementation Details

  • 对于评估的数值预测方法
    其实现基于官方的FEDformer4存储库,该存储库还包括Transformer、Informer和Autoformer的实现。(这里笔者没有详细去看这些库的使用,论文对于一些参数的说明就没有列举出来,有兴趣的可以自己去看看)
  • 对于基准测试中的语言模型
    分为两种:
    1.第一类遵循EncoderDecoderModel框架: BERT, RoBERTa, Electra
    2.第二类是HuggingFace中的ConditionalGeneration框架:其余7种模型
    微调过程是基于HuggingFace提供的标准Trainer(应用sequence-to-sequence训练器),没有对损失函数进行任何修改

我们想强调的是,语言模型和数值预测方法在我们的基准中得到了平等和公平的对待和处理。PromptCast也没有特定的超参数调优。对于语言模型和数值模型,我们都使用官方实现提供/推荐的默认设置。

Experimental Performance

  • Numerical-Based Methods:对于transformer中的temporal embeddings 本文充分研究和测试了三种不同的嵌入方法,即timeF、fixed和learned。结果如表三所示:
    promptcast: a new prompt-based learning paradigm for time series forecasting,论文阅读,语言模型
    结果分析
    一般来说,FEDformer, Informer和Autoformer在不同的子集中达到最佳性能。在大多数情况下,这些先进的时间序列预测框架优于普通的Transformer、朴素的方法和非Transformer方法。
    对于不同的嵌入,the fixed embedding 总体上表现出良好的性能。

  • Pre-trained Language Models:
    使用HuggingFace提供的现成的预训练权值进行初始化。配置细节如表6所示,根据表中给出的模型密钥,可以从HuggingFace访问和下载相应的预训练模型。
    promptcast: a new prompt-based learning paradigm for time series forecasting,论文阅读,语言模型
    原始的预训练模型不包括PISA数据集,这也防止了潜在的数据泄露。在实验中,每个语言模型都使用PISA中每个子集的训练集进行微调。结果如表四所示:
    promptcast: a new prompt-based learning paradigm for time series forecasting,论文阅读,语言模型
    结果分析:
    Bigbird在6个指标中的4个上表现最佳,联合表三一起分析,可以看到使用语言模型在CT和ECL子集上的表现相当好,对于ECL来说,虽然使用语言模型的MAE比表III中的最佳表现略差,但RMSE有相对较大的改进。与数值方法相比,使用语言模型也能得到相当的结果。 该基准回答了RQ1,并表明基于提示的语言模型预测是时间序列预测研究的一个有前途的方向。
    缺失率:
    表五显示了结果,只有三种方法(ProphetNet, Electra和BERT)有少量(小于0.5%)的缺失例子(表中没有显示的表示没有缺失),研究发现失败案例是相关的,并且可能是由负值引起的。
    promptcast: a new prompt-based learning paradigm for time series forecasting,论文阅读,语言模型

  • Performance of ChatGPT:
    使用相同的PISA子集来评估GPT-3.5(未进行微调),在评估过程中,我们使用来自PISA测试集的输入提示作为查询,并收集来自API的响应。表8总结了GPT-3.5的最终性能。
    promptcast: a new prompt-based learning paradigm for time series forecasting,论文阅读,语言模型
    结果分析:
    GPT-3.5在所有三个子集中都显示出更高的RMSE和MAE值。从表中,我们也可以清楚地注意到GPT3.5有很大的缺失率,特别是在SG子集上。

others

文章还做了很多实验,包括Training From Scratch、Zero-shot Performance、Prompts Ablation Study等,这里笔者暂时没有细读,大家有兴趣可以自己去读一读。

五、 DISCUSSION AND CONCLUSION

本文介绍了一个新的任务PromptCast,它利用语言模型以语言生成的方式来预测时间序列。由于这是关于PromptCast任务的第一个工作,并且没有现有的数据集适合,因此我们构建了第一个数据集PISA来研究基于提示的预测。
这个大规模的数据集包含三个真实世界的时间序列预测场景。为了进一步推进PromptCast的研究,我们还在发布的数据集上建立了一个基准,并提供了一套强大的基线,包括最先进的数值预测方法和语言生成模型。实验结果表明,在PromptCast设置中使用语言模型具有良好的预测性能和泛化能力。

同时讨论了未来研究的一些潜在方向
(1)自动提示:本文通过模板实现数值数据到文本的转换。尽管基于模板的提示是有效的,但是很难产生不同的提示,并且固定的模板可能会引入偏差(对某些模板的偏差)。开发自动时间序列提示或时间序列字幕(类似于图像字幕),它利用生成模型来描述时间序列数据。
(2)可解释性:研究为什么为语言建模任务设计的模型能够预测时间序列。文章来源地址https://www.toymoban.com/news/detail-858093.html

到了这里,关于论文笔记 | PromptCast: A New Prompt-based Learning Paradigm for Time Series Forecasting的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【图像修复】论文阅读笔记 ----- 《Image inpainting based on deep learning: A review》

    原文下载链接1:https://www.sciencedirect.com/science/article/abs/pii/S0141938221000391 原文下载链接2:http://s.dic.cool/S/KSS4D4LC 本篇论文综述发表于2021年。文章总结了基于深度学习的不同类型神经网络结构的修复方法,然后分析和研究了重要的技术改进机制;从模型网络结构和恢复方法等方

    2024年02月01日
    浏览(64)
  • 【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting

    个人阅读笔记,如有错误欢迎指出 Arxiv 2019        [1912.11464] Attack-Resistant Federated Learning with Residual-based Reweighting (arxiv.org) 问题:         联邦学习容易受到后门攻击 创新:         提出一种基于残差的重新加权聚合算法         聚合算法将重复中值回归和加权

    2024年02月15日
    浏览(49)
  • 论文笔记 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2

    ptuning - Prefix-Tuning - soft promt - p tuning v2 \\\"The Power of Scale for Parameter-Efficient Prompt Tuning\\\" EMNLP 2021 Google Brain 人能理解的不一定是模型需要的,所以不如让模型自己训练所需的prompt。 论文作者:Brian Lester, Rami Al-Rfou Google Blog: \\\"Guiding Frozen Language Models with Learned Soft Prompts\\\" Github Repo J

    2024年02月11日
    浏览(45)
  • 【提示学习论文六】MaPLe: Multi-modal Prompt Learning论文原理

    这篇文章于2023年发表在CVPR(Conference on Computer Vision and Pattern Recognition),作者是Muhammad Uzair Khattak,Hanoona Rasheed,Muhammad Maaz,Salman Khan,Fahad Shahbaz Khan。 研究发现Clip的问题:在单个分支(语言或视觉)中使用prompt来调整表示是次优的,它不能在下游任务上灵活地动态调整两个

    2024年01月22日
    浏览(45)
  • 论文阅读--Deep Learning-Based Channel Estimation

    论文信息: Soltani M, Pourahmadi V, Mirzaei A, et al. Deep learning-based channel estimation[J]. IEEE Communications Letters, 2019, 23(4): 652-655. 创新点: 信道时频响应建模为图像,将OFDM的时频特性视做一种2D图像信息。 将导频位置的通道响应视为LR图像,并将估计的通道响应视为HR图像。 利用基于深度

    2024年02月01日
    浏览(49)
  • TartanVO: A Generalizable Learning-based VO 论文阅读

    题目 :TartanVO: A Generalizable Learning-based VO 作者 :Wenshan Wang, Yaoyu Hu 来源 :CoRL 时间 :2021 代码地址 :https://github.com/castacks/tartanvo 我们提出了第一个基于学习的视觉里程计(VO)模型,该模型可推广到多个数据集和现实场景,并且在具有挑战性的场景中优于基于几何的方法。

    2024年02月13日
    浏览(50)
  • 论文解读:(UPL)Unsupervised Prompt Learning for Vision-Language Models

    存在的问题 之前的来自目标数据集的标记数据(有监督学习)可能会限制可伸缩性。 动机 通过无监督提示学习(UPL)方法,以避免提示工程,同时提高类clip视觉语言模型的迁移性能。 主张top-k而不是top-p 注:top-k是指挑选概率最大的k个,top-p是指挑选预测概率大于p的那些数据 看

    2024年04月23日
    浏览(60)
  • 论文阅读<Contrastive Learning-based Robust Object Detection under Smoky Conditions>

    论文链接:https://openaccess.thecvf.com/content/CVPR2022W/UG2/papers/Wu_Contrastive_Learning-Based_Robust_Object_Detection_Under_Smoky_Conditions_CVPRW_2022_paper.pdf         目标检测是指有效地找出图像中感兴趣的目标,然后准确地确定它们的类别和位置。近年来,许多优秀的方法被开发出来,以提供强

    2024年02月04日
    浏览(48)
  • Multi-Task Learning based Video Anomaly Detection with Attention 论文阅读

    文章信息: 原文链接:https://ieeexplore.ieee.org/document/10208994/ 源代码:无 发表于:CVPR 2023 基于多任务学习的视频异常检测方法将多个代理任务结合在不同的分支中,以便在不同情境中检测视频异常。然而,大多数现有方法存在以下一些缺点: I) 它们的代理任务组合方式不是以

    2024年01月20日
    浏览(53)
  • 论文阅读:Whole slide images classification model based on self-learning sampling

    这是一篇发表在BSPC(Biomedical Signal Processing and Control)上的关于WSI分类的文章, 作者是上海科技大学的学生/老师。 论文链接为:https://www.sciencedirect.com/science/article/pii/S1746809423012594 代码:暂未开源 深度学习与计算病理学的结合的增加放大了整个WSI在现代临床诊断中的应用。然而

    2024年02月02日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包