论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models

这篇具有很好参考价值的文章主要介绍了论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

iclr 2024 reviewer 评分 3888

1 方法

  • 提出了 Time-LLM,
    • 是一个通用的大模型重编程(LLM Reprogramming)框架
    • 将 LLM 轻松用于一般时间序列预测,而无需对大语言模型本身做任何训练

论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models,论文笔记,论文阅读,语言模型,人工智能

论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models,论文笔记,论文阅读,语言模型,人工智能

为什么需要时序数据和文本数据对齐:时序数据和文本数据在表达方式上存在显著差异,两者属于不同的模态。时间序列既不能直接编辑,也不能无损地用自然语言描述

3 实验

3.1 实验结果

论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models,论文笔记,论文阅读,语言模型,人工智能

论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models,论文笔记,论文阅读,语言模型,人工智能

3.2 few-shot 实验结果

论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models,论文笔记,论文阅读,语言模型,人工智能

论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models,论文笔记,论文阅读,语言模型,人工智能

3.3 zero-shot 结果

论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models,论文笔记,论文阅读,语言模型,人工智能

3.4 ablation study

论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models,论文笔记,论文阅读,语言模型,人工智能文章来源地址https://www.toymoban.com/news/detail-861425.html

到了这里,关于论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文笔记:A Time Series is Worth 64 Words: Long-term Forecasting with Transformers

    ICLR 2023 比较简单,就不分intro、model这些了 给定每个时间段的长度、划分的stride,将时间序列分成若干个时间段 时间段之间可以有重叠,也可以没有 每一个时间段视为一个token 降低复杂度 Attention 的复杂度是和 token 数量成二次方关系。 如果每一个 patch 代表一个 token,而不是

    2024年02月07日
    浏览(36)
  • 【论文阅读】iTransformer: Inverted Transformers Are Effective for Time Series Forecasting

    论文链接 :[2310.06625] iTransformer: Inverted Transformers Are Effective for Time Series Forecasting (arxiv.org) 作者 :Yong Liu, Tengge Hu, Haoran Zhang, Haixu Wu, Shiyu Wang, Lintao Ma, Mingsheng Long 单位 :清华大学,蚂蚁集团 代码 :https://github.com/thuml/iTransformer 引用 :Liu Y, Hu T, Zhang H, et al. itransformer: Inverted

    2024年04月27日
    浏览(31)
  • 论文笔记: One Fits All:Power General Time Series Analysis by Pretrained LM

    时间序列领域预训练模型/foundation 模型的研究还不是很多 主要挑战是缺乏大量的数据来训练用于时间序列分析的基础模型 ——论文 利用预训练的语言模型进行通用的时间序列分析 为各种时间序列任务提供了一个统一的框架   论文还调查了 为什么从语言领域预训练的Transf

    2024年02月11日
    浏览(29)
  • 【论文阅读】Informer Beyond Efficient Transformer for Long Sequence Time-Series Forecasting

    原始题目:Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting 中文翻译:Informer:超越有效变换器进行长序列时间序列预测 发表时间:2021-05-18 平台:Proceedings of the AAAI Conference on Artificial Intelligence 文章链接:https://ojs.aaai.org/index.php/AAAI/article/view/17325 开源代码:htt

    2024年03月12日
    浏览(36)
  • 【论文阅读】RevIN - Reversible Instance Normalization for Accurate Time-Series Forecasting Against Distrib

    发表信息:ICLR 2022 论文地址:https://openreview.net/forum?id=cGDAkQo1C0p 时间序列预测中的主要挑战之一是数据分布漂移问题(distribution shift problem),即数据分布,比如数据的均值方差等,会随着时间而变化,这会给时序预测问题造成一定的难度(这类数据也成为非平稳数据non-sta

    2024年02月14日
    浏览(34)
  • 【论文阅读】N-BEATS Neural basis expansion analysis for interpretable time series forecasting

    原始题目:N-BEATS: Neural basis expansion analysis for interpretable time series forecasting 中文翻译:N-BEATS:可解释时间序列预测的神经基展开分析 发表时间:2020-02-20 平台:arXiv 文章链接:http://arxiv.org/abs/1905.10437 开源代码:https://github.com/servicenow/n-beats 我们专注于使用深度学习解决单变量

    2024年03月11日
    浏览(29)
  • Time-LLM:为时间序列预测重新编程LLM 探索Time-LLM的架构,并在Python中将其应用于预测项目

    参考资料:Time-LLM/ Reprogram an LLM for Time Series Forecasting.md 研究人员尝试将自然语言处理(NLP)技术应用于时间序列领域并非首次。 例如,Transformer架构在NLP领域是一个重要的里程碑,但其在时间序列预测方面的表现一直平平,直到PatchTST的提出。 正如您所知,大型语言模型(

    2024年04月25日
    浏览(35)
  • 论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

    2022 ICML 长时间序列问题是一个研究很广泛的问题 RNN以及变体会遇到梯度消失/梯度爆炸,这会在很大程度上限制他们的表现 Transformer的方法会导致很高的计算复杂度,以及很大的内存消耗,这也会使得在长时间序列上使用Transformer很吃力 近来有方法优化Transformer,使其计算复

    2024年02月11日
    浏览(30)
  • 时间序列(Time-Series)exp_long_term_forecasting.py代码解析

    from data_provider.data_factory import data_provider from exp.exp_basic import Exp_Basic from utils.tools import EarlyStopping, adjust_learning_rate, visual from utils.metrics import metric import torch import torch.nn as nn from torch import optim import os import time import warnings import numpy as np warnings.filterwarnings(\\\'ignore\\\') #长期预测类 cla

    2024年01月22日
    浏览(34)
  • 【时间序列综述】Transformer in Time Series:A Survey 论文笔记

    文章全名:Transformers in Time Series: A Survey 文章链接:[论文地址]([2202.07125v2] Transformers in Time Series: A Survey (arxiv.org)) 来源:IJCAI 2023 完成单位:阿里巴巴达摩院、上海交通大学 Transformer在自然语言处理和计算机视觉领域都取得了诸多成果,Transformer的捕获长距离依赖和交互的能力

    2024年04月26日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包