Лекция 8. Трансформеры, BERT, RAG, WebLLM
Автор: ИУ5
Загружено: 2025-06-05
Просмотров: 559
0:00 - seq2seq
4:30 - Внешнее внимание
9:50 - Attention
12:50 - Transformer и BERT
20:00 - Применение BERT
22:30 - Архитектура Трансформер
27:30 - Внутреннее внимание
29:50 - Матрицы q, k, v
35:00 - Attention heads
40:00 - Позиционное кодирование
52:00 - Декодер
57:40 - One-hot из embedding
1:01:00 - Пример генерации
1:05:00 - История GPT, MCP
1:11:00 - отличие GPT
1:15:00 - Квантизация и дистилляция
1:19:00 - WebLLM
1:21:20 - RAG
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: