用于时间序列预测的仅解码器基础模型

Papers with Code Trending 论文

摘要

本文介绍了一篇关于时间序列基础模型(TimeFM)的研究论文,这是一种仅解码器模型,通过借鉴大型语言模型技术,在多样化的时间序列数据集上实现了近乎最佳的零样本性能。

受自然语言处理(NLP)领域大型语言模型近期进展的启发,我们设计了一个用于预测的时间序列基础模型。该模型在各种公开数据集上的开箱即用零样本性能,接近于针对每个单独数据集的最先进监督预测模型的准确度。我们的模型基于在一个大型时间序列语料库上对补丁式解码器(patched-decoder)风格的注意力模型进行预训练,并且能够适应不同的预测历史长度、预测长度和时间粒度。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/08 08:47

论文页面 - TimesFM:用于时间序列预测的仅解码器基础模型

来源: https://huggingface.co/papers/2310.10688 发布于 2023 年 10 月 14 日

摘要

一种针对时间序列预测调整的大语言模型,在不同时间尺度和粒度下的多样化数据集上实现了接近最优的零样本(zero-shot)性能。

受自然语言处理(NLP)领域大语言模型近期进展的启发,我们设计了一个用于预测的时间序列基础模型 (https://huggingface.co/papers?q=forecasting),其在各种公开数据集上的开箱即用零样本性能 (https://huggingface.co/papers?q=zero-shot%20performance) 接近针对每个单独数据集的最新监督式预测 (https://huggingface.co/papers?q=forecasting) 模型的准确率。我们的模型基于在大规模时间序列语料库 (https://huggingface.co/papers?q=time-series%20corpus) 上预训练的 patch 解码器 (https://huggingface.co/papers?q=patched-decoder) 风格的注意力模型 (https://huggingface.co/papers?q=attention%20model),能够适应不同的预测历史长度、预测长度和时间粒度。

查看 arXiv 页面 (https://arxiv.org/abs/2310.10688) 查看 PDF (https://arxiv.org/pdf/2310.10688) GitHub 19.5k stars (https://github.com/google-research/timesfm) 添加到合集 (https://huggingface.co/login?next=%2Fpapers%2F2310.10688)

社区

通过在文本输入框中拖放、粘贴或点击此处上传图片、音频和视频。

点击或粘贴此处上传图片

在您的智能体中获取此论文:

hf papers read 2310.10688

没有最新的 CLI?curl -LsSf https://hf.co/cli/install.sh | bash

引用此论文的模型 14

google/timesfm-1.0-200m 时间序列预测 • 更新于 2024 年 5 月 17 日 • 1.3k ⬆️ • 814 ⭐️ (https://huggingface.co/google/timesfm-1.0-200m)

google/timesfm-2.0-500m-pytorch 时间序列预测 • 0.5B • 更新于 2025 年 4 月 16 日 • 35.7k ⬆️ • 252 ⭐️ (https://huggingface.co/google/timesfm-2.0-500m-pytorch)

google/timesfm-2.5-200m-pytorch 时间序列预测 • 更新于 2025 年 10 月 2 日 • 228 ⭐️ (https://huggingface.co/google/timesfm-2.5-200m-pytorch)

google/timesfm-2.5-200m-transformers 时间序列预测 • 0.2B • 更新于 27 天前 • 145k ⬆️ • 82 ⭐️ (https://huggingface.co/google/timesfm-2.5-200m-transformers)

浏览引用此论文的 14 个模型 (https://huggingface.co/models?other=arxiv:2310.10688)

引用此论文的数据集 0

没有数据集链接此论文

在数据集的 README.md 中引用 arxiv.org/abs/2310.10688 即可从此页面链接它。

引用此论文的 Spaces 46

包含此论文的合集 9

浏览包含此论文的 9 个合集 (https://huggingface.co/collections?paper=2310.10688)

相似文章

SDFlow:用于时间序列生成的相似性驱动流匹配

arXiv cs.AI

本文介绍了 SDFlow,这是一种用于时间序列生成的相似性驱动流匹配框架,旨在解决自回归模型中的暴露偏差问题。通过在冻结的 VQ 潜在空间中进行低秩流形分解,SDFlow 实现了最先进的性能并显著提升了推理速度。

Kronos:金融市场语言的基座模型

Papers with Code Trending

Kronos 是一种针对金融 K 线数据的新基座模型,它采用专用分词器和自回归预训练,在预测和合成数据生成方面优于现有模型。

ConFu:通过未来思考实现更好的推测采样

arXiv cs.CL

ConFu引入了一个新颖的推测解码框架,使草稿模型能够通过思考令牌和软提示预期未来的生成方向,在多个LLM模型上相比EAGLE-3实现了8-20%的令牌接受率和生成速度提升。