[Paper Review] A Time Series Is Worth 64 Words: Long-Term Forecasting With Transformers

  Рет қаралды 4,314

고려대학교 산업경영공학부 DSBA 연구실

고려대학교 산업경영공학부 DSBA 연구실

Жыл бұрын

[ 발표자 ]
고려대학교 DSBA 연구실 박사과정 최희정
[ 발표 요약 ]
1. Topic
A Time Series Is Worth 64 Words: Long-Term Forecasting With Transformers
2. Overview
이번 세미나 시간에는 ICLR 2023에 accept 된 long-term time series forecasting(LTSF) 방법론 PatchTST를 공유하고자 한다. 최근 “Are Transformers Effective for Time Series Forecasting?” 논문에서 매우 간단한 linear 모델이 다양한 Transformer 기반 LTSF 모델들의 성능을 능가하면서 LTSF에서 Transformer의 효과에 대한 의문이 제기되었다. 본 논문에서는 channel-independence patch time series Transformer (Patch TST)를 제안하여 기존 연구 결과와 다르게 Transformer가 LTSF에 효과적이라는 것을 증명하였다. 세부적으로 PatchTST는 sub-series level patch를 사용하여 Trasformer에 locality를 반영하고 메모리 사용량을 줄였으며, 각 변수를 독립적으로 학습하는 channel-independence 세팅을 사용하여 Transformer의 연산량을 줄였다.
3. 발표자료
dsba.korea.ac.kr/seminar/?uid=...
4. 참고문헌
[1] A Time Series Is Worth 64 Words: Long-Term Forecasting With Transformers (ICLR 2023)
[2] Are Transformers Effective for Time Series Forecasting (AAAI 2023)

Пікірлер: 5
@MinYeong3
@MinYeong3 Жыл бұрын
진짜 깔끔하게 정리 잘해주셔서 감사합니다. 최근에 LTSF 때문에 골머리 싸매고 있었는데 단번에 정리된 것 같아요!
@sblee918
@sblee918 3 ай бұрын
처리 방법 아이디어가 좋네요.
@pusj61
@pusj61 11 ай бұрын
Hi, would it be possible for you to add an English version of this video? Thanks!
@MinYeong3
@MinYeong3 Жыл бұрын
Patch TST 일단 찍먹해보고 오겠습니다.
@shaswatidash4076
@shaswatidash4076 4 ай бұрын
Hi 고려대학교 산업경영공학부 DSBA 연구실, Please upload English version of this video if possible. Thanks in advance. Good luck !
[Paper Review] PEER: A Collaborative Language Model
42:59
고려대학교 산업경영공학부 DSBA 연구실
Рет қаралды 902
[Paper Review] Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting
41:50
고려대학교 산업경영공학부 DSBA 연구실
Рет қаралды 6 М.
HAPPY BIRTHDAY @mozabrick 🎉 #cat #funny
00:36
SOFIADELMONSTRO
Рет қаралды 11 МЛН
Does size matter? BEACH EDITION
00:32
Mini Katana
Рет қаралды 17 МЛН
DO YOU HAVE FRIENDS LIKE THIS?
00:17
dednahype
Рет қаралды 98 МЛН
아이스크림으로 체감되는 요즘 물가
00:16
진영민yeongmin
Рет қаралды 55 МЛН
[Paper Review] End-to-End Object Detection with Transformers (DETR)
40:18
고려대학교 산업경영공학부 DSBA 연구실
Рет қаралды 4 М.
[Paper Review] Temporal Fusion Transformers (TFT)
35:20
고려대학교 산업경영공학부 DSBA 연구실
Рет қаралды 5 М.
Introduction to Mamba SSM in PyTorch 🤖 🐍
24:31
Kye Gomez
Рет қаралды 2,8 М.
[Paper Review] Mamba: Linear-Time Sequence Modeling with Selective State Spaces
1:21:45
고려대학교 산업경영공학부 DSBA 연구실
Рет қаралды 6 М.
[Paper Review] Time Series Data Augmentation for Deep Learning: A Survey
35:45
고려대학교 산업경영공학부 DSBA 연구실
Рет қаралды 3,4 М.
[Paper Review] Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
42:14
고려대학교 산업경영공학부 DSBA 연구실
Рет қаралды 13 М.
PatchTST (ICLR 2023)
5:01
Yuqi Nie
Рет қаралды 4,4 М.
[Open DMQA Seminar] Conditional Diffusion Models
38:00
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 8 М.
Собери ПК и Получи 10,000₽
1:00
build monsters
Рет қаралды 2,6 МЛН
1$ vs 500$ ВИРТУАЛЬНАЯ РЕАЛЬНОСТЬ !
23:20
GoldenBurst
Рет қаралды 1,7 МЛН
Clicks чехол-клавиатура для iPhone ⌨️
0:59
Samsung Galaxy 🔥 #shorts  #trending #youtubeshorts  #shortvideo ujjawal4u
0:10
Ujjawal4u. 120k Views . 4 hours ago
Рет қаралды 5 МЛН
Зачем ЭТО электрику? #секрет #прибор #энерголикбез
0:56
Александр Мальков
Рет қаралды 272 М.