【论文笔记-5】iTransformer

ITRANSFORMER: INVERTED TRANSFORMERS ARE EFFECTIVE FOR TIME SERIES FORECASTING. Yong Liu, Tengge Hu, Haoran Zhang, Haixu Wu, Shiyu Wang, Lintao Ma, Mingsheng Long. ICLR 2024.

这篇论文是ICLR2024时空数据挖掘论文系列的论文笔记第1篇。

动机

作者认为Transformer用于时间序列预测不够有效,是由于Transformer没有被正确地利用。

任务

提出了iTransformer框架用于多元时间序列预测,这是一种倒置的Transformer框架,将注意力机制和前馈神经网络倒置。

方法

  • 用layer normalization和前馈神经网络来学习每个时间序列的非线性表示。
  • 用自注意力机制来学习多变量之间的关系。

iTransformer与Transformer及其变种的比较

iTransformer框架

评价

展望

文中提出的iTransformer框架,有望成为时间序列预测的基础骨干框架。

更多

  1. iTransformer论文解读
    https://mp.weixin.qq.com/s/_PKwnt9hjJJyxUiEDZ1EhA
  2. 【论文笔记-1】注意力人流量机器
    https://xiepeng21.cn/posts/a7c2a378/
  3. 【论文笔记-2】深度学习
    https://xiepeng21.cn/posts/c0d0024f/
  4. 【论文笔记-3】用于交通预测的多范围注意力双组分图卷积网络
    https://xiepeng21.cn/posts/e8cb7573/
  5. 【论文笔记-4】Attention Is All You Need
    https://xiepeng21.cn/posts/d3e954aa/
  6. 时空数据挖掘论文库
    https://github.com/xiepeng21/research_spatio-temporal-data-mining

【论文笔记-5】iTransformer
https://xiepeng21.cn/posts/4b43950f/
作者
Peter
发布于
2024年2月5日
许可协议