Sergey Nikolenko
Семинар Markov Lab -- 2025.12.12 -- The Expressive Capacity of SSMs
ЮФУ -- 2025.12.11 -- Функция регрессии, bias vairance noise, выбор моделей
СПбГУ -- 2025.12.11 -- Метод опорных векторов
СПбГУ -- 2025.12.11 -- Проблемы LLM и их решения
Семинар Markov Lab -- 2025.12.03 -- Оценка неопределённости в NLP
ЮФУ -- 2025.12.04 -- Логистическая регрессия и проклятие размерности
СПбГУ -- 2025.12.04 -- Flow matching, идея и масштабирование LLM
СПбГУ -- 2025.12.04 -- Экспоненциальное семейство и GLM
Семинар Markov Lab -- 2025-11-19 -- BART
ИИ и математика -- 2025.11.26 -- Мой курс машинного обучения
ЮФУ -- 2025.11.20 -- Пример с COVID, геометрия классификации
СПбГУ -- 2025-11-27 -- Принцип максимума энтропии и распределения Джеффриса
СПбГУ -- 2025-11-27 -- Порождающие модели, основанные на потоках
ЮФУ -- 2025.11.20 -- Байесовский вывод в линейной регрессии
СПбГУ -- 2025.11.20 -- Как работают диффузионные модели
СПбГУ -- 2025.11.20 -- Пример Джейнса
СПбГУ -- 2025.11.17 -- Введение в диффузионные модели
ЮФУ -- 2025.11.13 -- Линейная регрессия
Семинар Markov Lab -- 2025.11.12 -- VQ-VAE и что из него получилось
СПбГУ -- 2025-11-13 -- DALL-E и neural information retrieval
СПбГУ -- 2025.11.13 -- Обучение равномерного распределения
Семинар Markov Lab -- 2025.11.08 -- Gated Delta Networks и Mamba 3
ЮФУ -- 2025.11.06 -- Байесовский вывод для монетки
СПбГУ -- 2025.11.06 -- Вариационные автокодировщики
СПбГУ -- 2025.11.06 -- Информационный критерий Акаике
ЮФУ -- 2025.10.30 -- Вероятностные основы машинного обучения
Семинар Markov Lab -- 2025.10.29 -- Mamba 2, SSM и механизм внимания
СПбГУ -- 2025.10.30 -- Порождающие состязательные сети
СПбГУ -- 2025.10.30 -- Байесовский выбор моделей
Семинар Markov Lab -- 2025.10.22 -- Детали реализации Mamba