Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Direct Feedback Alignment Scales to Modern Deep Learning Tasks and Architectures (Paper Explained)

Автор: Yannic Kilcher

Загружено: 2020-06-27

Просмотров: 18025

Описание:

Backpropagation is one of the central components of modern deep learning. However, it's not biologically plausible, which limits the applicability of deep learning to understand how the human brain works. Direct Feedback Alignment is a biologically plausible alternative and this paper shows that, contrary to previous research, it can be successfully applied to modern deep architectures and solve challenging tasks.

OUTLINE:
0:00 - Intro & Overview
1:40 - The Problem with Backpropagation
10:25 - Direct Feedback Alignment
21:00 - My Intuition why DFA works
31:20 - Experiments

Paper: https://arxiv.org/abs/2006.12878
Code: https://github.com/lightonai/dfa-scal...
Referenced Paper by Arild Nøkland: https://arxiv.org/abs/1609.01596

Abstract:
Despite being the workhorse of deep learning, the backpropagation algorithm is no panacea. It enforces sequential layer updates, thus preventing efficient parallelization of the training process. Furthermore, its biological plausibility is being challenged. Alternative schemes have been devised; yet, under the constraint of synaptic asymmetry, none have scaled to modern deep learning tasks and architectures. Here, we challenge this perspective, and study the applicability of Direct Feedback Alignment to neural view synthesis, recommender systems, geometric learning, and natural language processing. In contrast with previous studies limited to computer vision tasks, our findings show that it successfully trains a large range of state-of-the-art deep learning architectures, with performance close to fine-tuned backpropagation. At variance with common beliefs, our work supports that challenging tasks can be tackled in the absence of weight transport.

Authors: Julien Launay, Iacopo Poli, François Boniface, Florent Krzakala

Links:
YouTube:    / yannickilcher  
Twitter:   / ykilcher  
Discord:   / discord  
BitChute: https://www.bitchute.com/channel/yann...
Minds: https://www.minds.com/ykilcher

Direct Feedback Alignment Scales to Modern Deep Learning Tasks and Architectures (Paper Explained)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Self-training with Noisy Student improves ImageNet classification (Paper Explained)

Self-training with Noisy Student improves ImageNet classification (Paper Explained)

Stanford Seminar - Can the brain do back-propagation? Geoffrey Hinton

Stanford Seminar - Can the brain do back-propagation? Geoffrey Hinton

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Поиск нейронной архитектуры без обучения (с пояснениями)

Поиск нейронной архитектуры без обучения (с пояснениями)

ЗАЧЕМ ТРАМПУ ГРЕНЛАНДИЯ? / Уроки истории @MINAEVLIVE

ЗАЧЕМ ТРАМПУ ГРЕНЛАНДИЯ? / Уроки истории @MINAEVLIVE

System Design Concepts Course and Interview Prep

System Design Concepts Course and Interview Prep

NeurIPS 2020 Tutorial: Deep Implicit Layers

NeurIPS 2020 Tutorial: Deep Implicit Layers

Гипотеза Пуанкаре — Алексей Савватеев на ПостНауке

Гипотеза Пуанкаре — Алексей Савватеев на ПостНауке

Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях

Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях

Понимание GD&T

Понимание GD&T

Training Machines to Learn the Way Humans Do: an Alternative to Backpropagation

Training Machines to Learn the Way Humans Do: an Alternative to Backpropagation

[Classic] Deep Residual Learning for Image Recognition (Paper Explained)

[Classic] Deep Residual Learning for Image Recognition (Paper Explained)

SupSup: Supermasks in Superposition (Paper Explained)

SupSup: Supermasks in Superposition (Paper Explained)

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

КОЗЫРЕВ - астрофизик ДОКАЗАЛ, что ВРЕМЯ это ЭНЕРГИЯ: дважды СИДЕЛ, приговорён к РАССТРЕЛУ

КОЗЫРЕВ - астрофизик ДОКАЗАЛ, что ВРЕМЯ это ЭНЕРГИЯ: дважды СИДЕЛ, приговорён к РАССТРЕЛУ

Как внимание стало настолько эффективным [GQA/MLA/DSA]

Как внимание стало настолько эффективным [GQA/MLA/DSA]

Yoshua Bengio - Deep learning and Backprop in the Brain (CCN 2017)

Yoshua Bengio - Deep learning and Backprop in the Brain (CCN 2017)

Population-Based Search and Open-Ended Algorithms

Population-Based Search and Open-Ended Algorithms

SpineNet: Learning Scale-Permuted Backbone for Recognition and Localization (Paper Explained)

SpineNet: Learning Scale-Permuted Backbone for Recognition and Localization (Paper Explained)

Гравитация — это не сила? — Ответ Ричарда Фейнмана заставит вас поломать голову

Гравитация — это не сила? — Ответ Ричарда Фейнмана заставит вас поломать голову

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: infodtube@gmail.com