Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Lecture 5: How does GPT-3 really work?

Автор: Vizuara

Загружено: 2024-08-27

Просмотров: 85571

Описание:

In this lecture, we will understand how GPT-3 works. We will start by looking at the history of GPT: from transformers to GPT to GPT-2 to GPT-3 and then to GPT-4. Then we will discuss about Zero-shot and Few-shot learning. We will discuss the autoregressive and unsupervised nature of GPT pre-training in detail. We end the lecture with a note on the emergent behavior shown by language models.

The key reference book which this video series very closely follows is Build a Large Language Model from Scratch by Manning Publications. All schematics and their descriptions are borrowed from this incredible book!

This book serves as a comprehensive guide to understanding and building large language models, covering key concepts, techniques, and implementations.

Affiliate links for purchasing the book will be added soon. Stay tuned for updates!

0:00 Introduction and recap
1:20 Transformers, GPT, GPT-2, GPT-3 and GPT-4
9:50 Zero Shot vs Few Shot learning
18:18 Datasets for GPT pre-training
27:16 Next word prediction
38:11 Emergent behaviour
42:19 Recap of lecture

=================================================

✉️ Join our FREE Newsletter: https://vizuara.ai/our-newsletter/

=================================================
Vizuara philosophy:

As we learn AI/ML/DL the material, we will share thoughts on what is actually useful in industry and what has become irrelevant. We will also share a lot of information on which subject contains open areas of research. Interested students can also start their research journey there.

Students who are confused or stuck in their ML journey, maybe courses and offline videos are not inspiring enough. What might inspire you is if you see someone else learning and implementing machine learning from scratch.

No cost. No hidden charges. Pure old school teaching and learning.

=================================================

🌟 Meet Our Team: 🌟

🎓 Dr. Raj Dandekar (MIT PhD, IIT Madras department topper)
🔗 LinkedIn:   / raj-abhijit-dandekar-67a33118a  


🎓 Dr. Rajat Dandekar (Purdue PhD, IIT Madras department gold medalist)
🔗 LinkedIn:   / rajat-dandekar-901324b1  


🎓 Dr. Sreedath Panat (MIT PhD, IIT Madras department gold medalist)
🔗 LinkedIn:   / sreedath-panat-8a03b69a  

🎓 Sahil Pocker (Machine Learning Engineer at Vizuara)
🔗 LinkedIn:   / sahil-p-a7a30a8b  

🎓 Abhijeet Singh (Software Developer at Vizuara, GSOC 24, SOB 23)
🔗 LinkedIn:   / abhijeet-singh-9a1881192  

🎓 Sourav Jana (Software Developer at Vizuara)
🔗 LinkedIn:   / souravjana131  

Lecture 5: How does GPT-3 really work?

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Lecture 6: Stages of building an LLM from Scratch

Lecture 6: Stages of building an LLM from Scratch

$1 vs $1,000,000,000 Футуристических Технологий!

$1 vs $1,000,000,000 Футуристических Технологий!

Курс по Python Pandas для анализа данных [2026] - Часть 6: Кодирование, масштабирование и разрабо...

Курс по Python Pandas для анализа данных [2026] - Часть 6: Кодирование, масштабирование и разрабо...

EASIEST Way to Fine-Tune a LLM and Use It With Ollama

EASIEST Way to Fine-Tune a LLM and Use It With Ollama

Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5

Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5

Build a Small Language Model (SLM) From Scratch | Make it Your Personal Assistant | Tech Edge AI

Build a Small Language Model (SLM) From Scratch | Make it Your Personal Assistant | Tech Edge AI

Краткое объяснение больших языковых моделей

Краткое объяснение больших языковых моделей

Lecture 7: Code an LLM Tokenizer from Scratch in Python

Lecture 7: Code an LLM Tokenizer from Scratch in Python

DeepSeek Basics

DeepSeek Basics

Building LLMs from scratch

Building LLMs from scratch

How DeepSeek Rewrote the Transformer [MLA]

How DeepSeek Rewrote the Transformer [MLA]

Attention to Transformers from zero to hero! (Theory + Hands on Projects)

Attention to Transformers from zero to hero! (Theory + Hands on Projects)

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Как работает GPT3 — легко объяснить с помощью анимации

Как работает GPT3 — легко объяснить с помощью анимации

GPT — все объяснено!

GPT — все объяснено!

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Lecture 4: What are transformers?

Lecture 4: What are transformers?

Deep Dive into LLMs like ChatGPT

Deep Dive into LLMs like ChatGPT

Ускоренный курс LLM по тонкой настройке | Учебное пособие LLM по тонкой настройке

Ускоренный курс LLM по тонкой настройке | Учебное пособие LLM по тонкой настройке

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: infodtube@gmail.com