Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

ICLR 2025: Accelerating Neural Network Training (AlgoPerf)

Автор: Tübingen Machine Learning

Загружено: 2025-04-03

Просмотров: 1441

Описание:

--------------------------------------------------------------------------------
Accelerating neural network training: An analysis of the AlgoPerf competition
Priya Kasimbeg, Frank Schneider, Runa Eschenhagen, Juhan Bae, Chandramouli Shama Sastry, Mark Saroufim, Boyuan Feng, Less Wright, Edward Z. Yang, Zachary Nado, Sourabh Medapati, Philipp Hennig, Michael Rabbat, George E. Dahl
International Conference on Learning Representations (ICLR) 2025
--------------------------------------------------------------------------------
► Paper: https://openreview.net/forum?id=CtM5x...
► arXiv: https://arxiv.org/abs/2502.15015
► Code: https://github.com/mlcommons/algorith...

The goal of the AlgoPerf: Training Algorithms competition is to evaluate practical speed-ups in neural network training achieved solely by improving the underlying training algorithms. In the external tuning ruleset, submissions must provide workload-agnostic hyperparameter search spaces, while in the self-tuning ruleset they must be completely hyperparameter-free. In both rulesets, submissions are compared on time-to-result across multiple deep learning workloads, training on fixed hardware. This paper presents the inaugural AlgoPerf competition's results, which drew 18 diverse submissions from 10 teams. Our investigation reveals several key findings: (1) The winning submission in the external tuning ruleset, using Distributed Shampoo, demonstrates the effectiveness of non-diagonal preconditioning over popular methods like Adam, even when compared on wall-clock runtime. (2) The winning submission in the self-tuning ruleset, based on the Schedule Free AdamW algorithm, demonstrates a new level of effectiveness for completely hyperparameter-free training algorithms. (3) The top-scoring submissions were surprisingly robust to workload changes. We also discuss the engineering challenges encountered in ensuring a fair comparison between different training algorithms. These results highlight both the significant progress so far, and the considerable room for further improvements.

00:00 (Introduction)
01:00 (Competition Setup)
02:28 (Results)
04:03 (Conclusion)

ICLR 2025: Accelerating Neural Network Training (AlgoPerf)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

[ICLR 2025] SC-OmniGS: Self-Calibrating Omnidirectional Gaussian Splatting

[ICLR 2025] SC-OmniGS: Self-Calibrating Omnidirectional Gaussian Splatting

ICLR 2021 Keynote -

ICLR 2021 Keynote - "Geometric Deep Learning: The Erlangen Programme of ML" - M Bronstein

Probabilistic ML - 08 - Gaussian Processes by Example

Probabilistic ML - 08 - Gaussian Processes by Example

XGBOOST in Python (Hyper parameter tuning)

XGBOOST in Python (Hyper parameter tuning)

Математики открывают странную новую бесконечность

Математики открывают странную новую бесконечность

Probabilistic ML - 10 - Time Series and Markov Chains

Probabilistic ML - 10 - Time Series and Markov Chains

Станислав Белковский*: Персонально ваш / 11.12.25 @BelkovskiyS

Станислав Белковский*: Персонально ваш / 11.12.25 @BelkovskiyS

Что происходит с нейросетью во время обучения?

Что происходит с нейросетью во время обучения?

Probabilistic ML - 07 - Kernels

Probabilistic ML - 07 - Kernels

[ICLR 2025] A New Periodic Table in Machine Learning

[ICLR 2025] A New Periodic Table in Machine Learning

How to Use Learning Rate Scheduling for Neural Network Training

How to Use Learning Rate Scheduling for Neural Network Training

Оптимизация гиперпараметров — Математика интеллекта №7

Оптимизация гиперпараметров — Математика интеллекта №7

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Probabilistic ML - 18 - Probabilistic Deep Learning

Probabilistic ML - 18 - Probabilistic Deep Learning

Предел развития НЕЙРОСЕТЕЙ

Предел развития НЕЙРОСЕТЕЙ

Towards General-Purpose Model-Free Reinforcement Learning | ICLR 2025 (Paper Walkthrough)

Towards General-Purpose Model-Free Reinforcement Learning | ICLR 2025 (Paper Walkthrough)

Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5

Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5

Делаем графические процессоры по-настоящему быстрыми: глубокий анализ эффективности тренировок

Делаем графические процессоры по-настоящему быстрыми: глубокий анализ эффективности тренировок

Объяснение скорости обучения в нейронной сети

Объяснение скорости обучения в нейронной сети

Batch Normalization - EXPLAINED!

Batch Normalization - EXPLAINED!

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]