谷歌发布长上下文基础模型 TimesFM-2.5
谷歌发布拥有 2 亿参数的纯解码器架构时间序列基础模型 TimesFM-2.5,支持 16K 上下文长度,原生具备概率预测能力,推动时间序列预测迈向实用化。它在 GIFT-Eval 基准测试零样本基础模型中表现优异,通过减半参数规模、扩展上下文长度实现效率与性能突破。目前已在 Hugging Face 开放访问(https://huggingface.co/google/timesfm-2.5-200m-pytorch),与 BigQuery 及 Model Garden 的集成正在推进,有望加速零样本时间序列预测在真实业务场景落地。
原创文章,作者:DEV编辑,如若转载,请注明出处:https://devcn.xin/5984.html