​谷歌 AI 推出 TimesFM-2.5:更小巧且具备长上下文的时间序列预测基础模型

研究团队近日发布了 TimesFM-2.5,这是一个具有 2 亿参数、解码器单一结构的时间序列基础模型。与前一版本相比,TimesFM-2.5 在参数数量上大幅减少,从 500M 降低到 200M。同时,这款新模型的上下文长度得到了显著提升,达到了 16,384 个数据点。此外,TimesFM-2.5 还支持本地概率预测,现已在 平台上线,并在 GIFT-Eval 的准确性评估中名列前茅。

时间序列预测是指对随时间变化的数据点进行分析,以识别模式并预测未来的值。它在各个行业中发挥着关键作用,包括零售商品需求预测、天气和降水趋势监测,以及大规模系统 (如供应链和能源网络) 的优化。通过捕捉时间依赖性和季节性变化,时间序列预测能够在动态环境中支持数据驱动的决策。

与前一版本 TimesFM-2.0 相比,TimesFM-2.5 的改进主要体现在以下几个方面: 首先,模型的参数数量显著减少; 其次,最大上下文长度的提升使其能够更好地捕捉多季节性结构和低频成分,减少了预处理的复杂性; 最后,新模型还引入了量化预测的可选功能,支持最多 1,000 个预测点。

为什么上下文长度的增加如此重要?16,384 个历史数据点的支持使得模型在单次前向传递中能够更全面地捕捉到数据的长期趋势。这对于一些具有显著历史影响的领域,例如能源负载和零售需求预测,尤其有利。

TimesFM 的核心理念是通过一个单一的解码器基础模型来进行预测,这一理论最早在 年 ICML 会议的论文中提出。GIFT-Eval(由 发起) 旨在为不同领域的评估标准化提供支持,并在 HuggingFace 上设立了公共排行榜,便于模型性能的比较。

TimesFM-2.5 标志着时间序列预测的基础模型从概念走向实际应用,展现出在保持较小参数量的同时,提升了模型的准确性和效率。该模型已在 HuggingFace 上上线,并将进一步与 BigQuery 和 ModelGarden 进行集成,促进零-shot 时间序列预测在实际应用中的广泛采用。

huggingface:https://huggingface.co/google/timesfm-2.5-200m-pytorch

划重点:

🌟**更小更快**:TimesFM-2.5 的参数数量减少至 200M,同时提高了准确性。

📈**更长上下文**: 支持 16,384 个输入长度,能够进行更深入的历史数据预测。

🏆**基准领跑**: 在 GIFT-Eval 中,TimesFM-2.5 在点预测和概率预测方面均排名第一。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

迪士尼等三巨头联手起诉 MiniMax,索赔金额或达天文数字

2025-9-18 1:21:55

AI 资讯

AI 认知革命:从 Ilya 的 「超级智能对齐」 到智能体 「不完备定理」

2025-9-18 1:22:11

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索