Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

MLP-Mixer in Flax and PyTorch

Автор: mildlyoverfitted

Загружено: 2021-05-17

Просмотров: 4470

Описание:

In this video, we implement the MLP-mixer in both Flax and PyTorch. It is a recent model for image classification that only uses simple multilayer perceptron blocks, however, it seems to perform as well as CNNs and Vision Transformers. Conceptually, it is really simple and the implementation is straightforward and therefore we try to code it up in two different deep learning frameworks - PyTorch and Flax. If you are new to Flax do not worry because this video contains a quick tutorial on the most important concepts. Last but not least we also investigate the relationship between the MLP-Mixer and Convolutional neural networks.

Paper: https://arxiv.org/abs/2105.01601
Official implementation: https://github.com/google-research/vi... (check out the branch linen if necessary)
Video implementation: https://github.com/jankrepl/mildlyove...

00:00 Intro
01:12 High level explanation
03:13 Flax 101
07:39 Flax implementation
08:48 nn.Dense behavior
10:11 Flax implementation continued
12:43 Torch: MlpBlock
14:14 Torch: MixerBlock
17:45 Channel mixing as convolution
20:06 Token mixing as convolution
22:43 Torch: MlpMixer
25:58 Patch embedding without convolution
28:27 Torch: MlpMixer continued
28:56 Comparing Flax and Torch networks
31:50 Outro


Wanna learn more about the LayerNorm?    • Vision Transformer in PyTorch  

If you have any video suggestions or you just wanna chat feel free to join the discord server:   / discord  

Credits logo animation
Title: Conjungation · Author: Uncle Milk · Source:   / unclemilk   · License: https://creativecommons.org/licenses/... · Download (9MB): https://auboutdufil.com/?id=600

MLP-Mixer in Flax and PyTorch

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

The Lottery Ticket Hypothesis and pruning in PyTorch

The Lottery Ticket Hypothesis and pruning in PyTorch

DINO in PyTorch

DINO in PyTorch

SIREN in PyTorch

SIREN in PyTorch

Haiku basics (neural network library from DeepMind)

Haiku basics (neural network library from DeepMind)

Почему «Трансформеры» заменяют CNN?

Почему «Трансформеры» заменяют CNN?

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Growing neural cellular automata in PyTorch

Growing neural cellular automata in PyTorch

MLP-Mixer: An all-MLP Architecture for Vision (Machine Learning Research Paper Explained)

MLP-Mixer: An all-MLP Architecture for Vision (Machine Learning Research Paper Explained)

Что происходит с нейросетью во время обучения?

Что происходит с нейросетью во время обучения?

Самая сложная модель из тех, что мы реально понимаем

Самая сложная модель из тех, что мы реально понимаем

Named entity recognition (NER) model evaluation

Named entity recognition (NER) model evaluation

PonderNet in PyTorch

PonderNet in PyTorch

NeurIPS 2020 Tutorial: Deep Implicit Layers

NeurIPS 2020 Tutorial: Deep Implicit Layers

Объяснение PyTorch Autograd — подробное руководство

Объяснение PyTorch Autograd — подробное руководство

Visualizing activations with forward hooks (PyTorch)

Visualizing activations with forward hooks (PyTorch)

Pytorch Transformers from Scratch (Attention is all you need)

Pytorch Transformers from Scratch (Attention is all you need)

Let's build GPT: from scratch, in code, spelled out.

Let's build GPT: from scratch, in code, spelled out.

Vision Transformer in PyTorch

Vision Transformer in PyTorch

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

CS480/680 Lecture 19: Attention and Transformer Networks

CS480/680 Lecture 19: Attention and Transformer Networks

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: infodtube@gmail.com