Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Vector-Quantized Variational Autoencoders (VQ-VAEs)

Автор: DeepBean

Загружено: 2024-08-14

Просмотров: 22883

Описание:

The Vector-Quantized Variational Autoencoder (VQ-VAE) forms discrete latent representations, by mapping encoding vectors to a limited size codebook. But, how does it do this, and why would we want to do it anyway?

Link to my video on VAEs:    • Understanding Variational Autoencoders (VAEs)  

Timestamps
-------------------
00:00 Introduction
01:09 VAE refresher
02:42 Quantization
04:46 Posterior
06:09 Prior
07:06 Learned prior for sampling
09:55 Reconstruction loss
10:32 Straight-through estimation
11:50 Codebook loss
12:53 Commitment loss
14:33 Benefits of quantization
16:58 Application examples

Links
---------
VQ-VAE paper: https://arxiv.org/abs/1711.00937
Straight-through estimation paper: https://arxiv.org/abs/1308.3432
PixelCNN paper: https://arxiv.org/abs/1606.05328
WaveNet paper: https://arxiv.org/abs/1609.03499
Text-to-Image paper: https://arxiv.org/abs/2111.14822
Jukebox paper: https://arxiv.org/abs/2005.00341
PyTorch implementation: https://github.com/airalcorn2/vqvae-p...
Keras implementation: https://keras.io/examples/generative/...

Vector-Quantized Variational Autoencoders (VQ-VAEs)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Vanishing Gradients: Why Training RNNs is Hard

Vanishing Gradients: Why Training RNNs is Hard

Understanding Variational Autoencoders (VAEs)

Understanding Variational Autoencoders (VAEs)

Residual Vector Quantization for Audio and Speech Embeddings

Residual Vector Quantization for Audio and Speech Embeddings

Распутывание с бета-ВАЭ

Распутывание с бета-ВАЭ

VQ-VAEs: Neural Discrete Representation Learning | Paper + PyTorch Code Explained

VQ-VAEs: Neural Discrete Representation Learning | Paper + PyTorch Code Explained

Vector Quantized Variational AutoEncoder (VQVAE) From Scratch

Vector Quantized Variational AutoEncoder (VQVAE) From Scratch

VQ-VAE | Всё, что вам нужно знать об этом | Объяснение и применение

VQ-VAE | Всё, что вам нужно знать об этом | Объяснение и применение

Residual Vector Quantization (RVQ) From Scratch

Residual Vector Quantization (RVQ) From Scratch

NVAE: A Deep Hierarchical Variational Autoencoder (Paper Explained)

NVAE: A Deep Hierarchical Variational Autoencoder (Paper Explained)

Это спасет, когда заблокируют ВЕСЬ ИНТЕРНЕТ!

Это спасет, когда заблокируют ВЕСЬ ИНТЕРНЕТ!

Больше, чем генераторы изображений: наука решения проблем с использованием теории вероятностей | ...

Больше, чем генераторы изображений: наука решения проблем с использованием теории вероятностей | ...

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Why Deep Learning Works Unreasonably Well [How Models Learn Part 3]

Why Deep Learning Works Unreasonably Well [How Models Learn Part 3]

Квантование против обрезки против дистилляции: оптимизация нейронных сетей для вывода

Квантование против обрезки против дистилляции: оптимизация нейронных сетей для вывода

Вариационный автоэнкодер с нуля в PyTorch

Вариационный автоэнкодер с нуля в PyTorch

Вариационные автоэнкодеры

Вариационные автоэнкодеры

THIS is why large language models can understand the world

THIS is why large language models can understand the world

Понимание вариационного автоэнкодера | Объяснение VAE

Понимание вариационного автоэнкодера | Объяснение VAE

Хитрость репараметризации

Хитрость репараметризации

Вариационные автоэнкодеры | Генеративный ИИ-анимированный

Вариационные автоэнкодеры | Генеративный ИИ-анимированный

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]