[Paper Review] Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting
Автор: 서울대학교 산업공학과 DSBA 연구실
Загружено: 2021-10-01
Просмотров: 7265
발표자 : 고려대학교 DSBA 연구실 석사과정 김수빈 ([email protected])
발표자료 다운 : http://dsba.korea.ac.kr/seminar/
1. Topic : Informer 논문 리뷰 (https://arxiv.org/abs/2012.07436)
2. Keyword : Transformer, Long sequence time series, ProbSparse Self-attention, Distilling, Generative style decoder
3. Contents :
00:20 Overview
01:07 Introduction
06:45 Related Works
12:17 Paper Review
40:46 Conclusion
4. Reference source는 발표자료 내부에 표기
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: