Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Overcoming Mode Collapse and the Curse of Dimensionality

Автор: Machine Learning Department at CMU

Загружено: 2020-02-07

Просмотров: 3629

Описание:

Machine Learning Lecture at CMU by Ke Li, Ph.D. Candidate at the University of California, Berkeley
Lecturer: Ke Li

Carnegie Mellon University

Abstract:

In this talk, Li presents his team's work on overcoming two long-standing problems in machine learning and algorithms:

1. Mode collapse in generative adversarial nets (GANs)

Generative adversarial nets (GANs) are perhaps the most popular class of generative models in use today. Unfortunately, they suffer from the well-documented problem of mode collapse, which the many successive variants of GANs have failed to overcome. I will illustrate why mode collapse happens fundamentally and show a simple way to overcome it, which is the basis of a new method known as Implicit Maximum Likelihood Estimation (IMLE).

2. Curse of dimensionality in exact nearest neighbor search

Efficient algorithms for exact nearest neighbor search developed over the past 40 years do not work in high (intrinsic) dimensions, due to the curse of dimensionality. It turns out that this problem is not insurmountable - I will explain how the curse of dimensionality arises and show a simple way to overcome it, which gives rise to a new family of algorithms known as Dynamic Continuous Indexing (DCI).

Bio:

Ke Li is a recent Ph.D. graduate from UC Berkeley, where he was advised by Prof. Jitendra Malik, and will join Google as a Research Scientist and the Institute for Advanced Study (IAS) as a Member hosted by Prof. Sanjeev Arora. He is interested in a broad range of topics in machine learning, computer vision, NLP, and algorithms and has worked on generative modeling, nearest neighbor search, and Learning to Optimize. He is particularly passionate about tackling long-standing fundamental problems that cannot be tackled with a straightforward application of conventional techniques. He received his Hon. B.Sc. in Computer Science from the University of Toronto in 2014.

Overcoming Mode Collapse and the Curse of Dimensionality

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Class 1: “What’s Happened to Income & Wealth” by UC Berkeley Professor Reich

Class 1: “What’s Happened to Income & Wealth” by UC Berkeley Professor Reich

Overcoming the Curse of Dimensionality and Mode Collapse - Ke Li

Overcoming the Curse of Dimensionality and Mode Collapse - Ke Li

Как работала машина

Как работала машина "Энигма"?

Kenneth A. Ribet,

Kenneth A. Ribet, "A 2020 View of Fermat's Last Theorem"

🎙️ Честное слово с Аббасом Галлямовым

🎙️ Честное слово с Аббасом Галлямовым

Преломление и «замедление» света | По мотивам лекции Ричарда Фейнмана

Преломление и «замедление» света | По мотивам лекции Ричарда Фейнмана

Task-Optimized Models of the Brain (Aran Nayebi)

Task-Optimized Models of the Brain (Aran Nayebi)

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Residual Intersections in Geometry and Algebra by David Eisenbud

Residual Intersections in Geometry and Algebra by David Eisenbud

Почему простые числа образуют эти спирали? | Теорема Дирихле и пи-аппроксимации

Почему простые числа образуют эти спирали? | Теорема Дирихле и пи-аппроксимации

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Language in the brain and machines

Language in the brain and machines

Strong Generalization from Small Brains and No Training Data

Strong Generalization from Small Brains and No Training Data

Эффект наблюдателя – полное объяснение без мистики.

Эффект наблюдателя – полное объяснение без мистики.

Понимание GD&T

Понимание GD&T

The Amazing Mathematics of the Golden Ratio

The Amazing Mathematics of the Golden Ratio

Рон Вейл (UCSF и HHMI): Открытие кинезина

Рон Вейл (UCSF и HHMI): Открытие кинезина

Quantum Signal Processing

Quantum Signal Processing

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]