2亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

AIGC动态10个月前发布 机器之心
12 0 0

2亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

AIGC动态欢迎阅读

原标题:2亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」
关键字:报告,模型,时间,序列,数据
文章来源:机器之心
内容字数:7215字

内容摘要:


机器之心报道
编辑:张倩、泽南照箭画靶,跑分自设标准?
最近,谷歌的一篇论文在 X 等社交媒体平台上引发了一些争议。
这篇论文的标题是「A decoder-only foundation model for time-series forecasting(用于时间序列预测的仅解码器基础模型)」。简而言之,时间序列预测就是通过分析历史数据的变化趋势和模式,来预测未来的数据变化。这类技术在气象预报、交通流量预测、商业销售等领域有着广泛的应用。例如,在零售业中,提高需求预测的准确性可以有效降低库存成本并增加收入。
近年来,深度学习模型已成为预测丰富的多变量时间序列数据的流行方法,因为它们已被证明在各种环境中表现出色。
但是,这些模型也面临一些挑战:大多数深度学习架构需要漫长而复杂的训练和验证周期,急需一个开箱即用的基础模型来缩短这一周期。
谷歌的新论文就是为了解决这一问题而诞生的。在论文中,他们提出了一个用于时间序列预测的仅解码器基础模型 ——TimesFM。这是一个在 1000 亿个真实世界时间点的大型时间序列语料库上预训练的单一预测模型。与最新的大型语言模型相比,TimesFM 要小得多


原文链接:2亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...