用于时间序列预测的仅解码器基础模型
摘要
本文介绍了一篇关于时间序列基础模型(TimeFM)的研究论文,这是一种仅解码器模型,通过借鉴大型语言模型技术,在多样化的时间序列数据集上实现了近乎最佳的零样本性能。
查看缓存全文
缓存时间: 2026/05/08 08:47
论文页面 - TimesFM:用于时间序列预测的仅解码器基础模型
来源: https://huggingface.co/papers/2310.10688 发布于 2023 年 10 月 14 日
摘要
一种针对时间序列预测调整的大语言模型,在不同时间尺度和粒度下的多样化数据集上实现了接近最优的零样本(zero-shot)性能。
受自然语言处理(NLP)领域大语言模型近期进展的启发,我们设计了一个用于预测的时间序列基础模型 (https://huggingface.co/papers?q=forecasting),其在各种公开数据集上的开箱即用零样本性能 (https://huggingface.co/papers?q=zero-shot%20performance) 接近针对每个单独数据集的最新监督式预测 (https://huggingface.co/papers?q=forecasting) 模型的准确率。我们的模型基于在大规模时间序列语料库 (https://huggingface.co/papers?q=time-series%20corpus) 上预训练的 patch 解码器 (https://huggingface.co/papers?q=patched-decoder) 风格的注意力模型 (https://huggingface.co/papers?q=attention%20model),能够适应不同的预测历史长度、预测长度和时间粒度。
查看 arXiv 页面 (https://arxiv.org/abs/2310.10688) 查看 PDF (https://arxiv.org/pdf/2310.10688) GitHub 19.5k stars (https://github.com/google-research/timesfm) 添加到合集 (https://huggingface.co/login?next=%2Fpapers%2F2310.10688)
社区
通过在文本输入框中拖放、粘贴或点击此处上传图片、音频和视频。
点击或粘贴此处上传图片
在您的智能体中获取此论文:
hf papers read 2310.10688
没有最新的 CLI?curl -LsSf https://hf.co/cli/install.sh | bash
引用此论文的模型 14
google/timesfm-1.0-200m 时间序列预测 • 更新于 2024 年 5 月 17 日 • 1.3k ⬆️ • 814 ⭐️ (https://huggingface.co/google/timesfm-1.0-200m)
google/timesfm-2.0-500m-pytorch 时间序列预测 • 0.5B • 更新于 2025 年 4 月 16 日 • 35.7k ⬆️ • 252 ⭐️ (https://huggingface.co/google/timesfm-2.0-500m-pytorch)
google/timesfm-2.5-200m-pytorch 时间序列预测 • 更新于 2025 年 10 月 2 日 • 228 ⭐️ (https://huggingface.co/google/timesfm-2.5-200m-pytorch)
google/timesfm-2.5-200m-transformers 时间序列预测 • 0.2B • 更新于 27 天前 • 145k ⬆️ • 82 ⭐️ (https://huggingface.co/google/timesfm-2.5-200m-transformers)
浏览引用此论文的 14 个模型 (https://huggingface.co/models?other=arxiv:2310.10688)
引用此论文的数据集 0
没有数据集链接此论文
在数据集的 README.md 中引用 arxiv.org/abs/2310.10688 即可从此页面链接它。
引用此论文的 Spaces 46
包含此论文的合集 9
浏览包含此论文的 9 个合集 (https://huggingface.co/collections?paper=2310.10688)
相似文章
SDFlow:用于时间序列生成的相似性驱动流匹配
本文介绍了 SDFlow,这是一种用于时间序列生成的相似性驱动流匹配框架,旨在解决自回归模型中的暴露偏差问题。通过在冻结的 VQ 潜在空间中进行低秩流形分解,SDFlow 实现了最先进的性能并显著提升了推理速度。
@oragnes: 谷歌偷偷开源了时序预测底座TimesFM 2.5,参数降到200M,上下文飙到16k。 历史数值丢进去直接出zero-shot预测,家人们可以做一个加密货币预测,哈哈~ TimesFM是一个已经预训练好的时间序列预测基座模型。你把历史数值…
谷歌开源了时序预测基座模型TimesFM 2.5,参数量降至200M,上下文长度扩展至16k,可直接基于历史数值序列进行zero-shot预测。
首个Token已知:用于幻觉检测的单次解码置信度
本文介绍了一种利用大语言模型生成首Token的置信度来检测幻觉的方法,该方法仅需执行单次解码步骤。
Kronos:金融市场语言的基座模型
Kronos 是一种针对金融 K 线数据的新基座模型,它采用专用分词器和自回归预训练,在预测和合成数据生成方面优于现有模型。
ConFu:通过未来思考实现更好的推测采样
ConFu引入了一个新颖的推测解码框架,使草稿模型能够通过思考令牌和软提示预期未来的生成方向,在多个LLM模型上相比EAGLE-3实现了8-20%的令牌接受率和生成速度提升。