Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Introduction to Neural Networks (Lecture 15)

Автор: Gautam Goel

Загружено: 2026-01-02

Просмотров: 26

Описание:

#AI #Python #DeepLearning #Micrograd #Coding #NeuralNetworks

Welcome to the fifteenth lecture of my Deep Learning series! 🧠💻

We have studied the math, visualized the curves, and understood the "why" behind activation functions. Now, it’s time to get our hands dirty. In this video, we open up our code editor and implement Sigmoid, Tanh, and ReLU directly into our Value class in the Micrograd library.

This isn't just a copy-paste coding session. We encounter a critical engineering decision: Design Choices.

Should we build Tanh using the primitive operations we already made (addition, division, powers)? Or should we implement it as its own atomic operation? In this lecture, we compare both approaches and discover why one is significantly better for the efficiency of our future Backpropagation engine.

In this video, we cover:
✅ Python's Math Library: We introduce the math module to handle exponential calculations (e^x) required for our S-curves.
✅ Implementing Sigmoid: We code the formula. We analyze two ways to do this: building a long chain of operations vs. creating a single function, and why the latter simplifies our derivative calculation later.
✅ The Tanh "Design Choice": We attempt to build Tanh using its raw formula involving exponentials and division. We realize this creates a massive computational graph with 7-8 intermediate gradients to calculate.
✅ Optimization & Efficiency: We discuss why defining Tanh and Sigmoid as "atomic" operations is a "Good Design Choice." This reduces the computational overhead during the backward pass by using the clean analytical derivatives we derived in previous lectures (e.g.,
✅ Implementing ReLU: We code the Rectified Linear Unit. We look at how to handle the logic: if the value is greater than 0, pass it through; otherwise, return 0. We verify that our implementation correctly handles the "dead neuron" state.

Resources:

🔗 GitHub Repository (Code & Notes): https://github.com/gautamgoel962/Yout...
🔗 Follow me on Instagram:   / gautamgoel978  

Subscribe and code along! We have now built the forward pass for our neurons. In the next video, we tackle the most magical part of Neural Networks: Backpropagation. We will manually implement the backward pass to teach our network how to learn! 📉🔥

#deeplearning #Python #Micrograd #ReLU #Sigmoid #Tanh #SoftwareEngineering #DataScience #MachineLearning #Hindi #AI #Backpropagation #ComputationalGraph

Introduction to Neural Networks (Lecture 15)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Introduction to Neural Networks (Lecture 16)

Introduction to Neural Networks (Lecture 16)

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Inventory, Data, & Demand Forecasting Webinar :: Applied AI & the Modern Supply Chain Webinar Series

Inventory, Data, & Demand Forecasting Webinar :: Applied AI & the Modern Supply Chain Webinar Series

Задача про надёжный пароль | В интернете опять кто-то неправ #035 | Борис Трушин и Математик Андрей

Задача про надёжный пароль | В интернете опять кто-то неправ #035 | Борис Трушин и Математик Андрей

Самая сложная модель из тех, что мы реально понимаем

Самая сложная модель из тех, что мы реально понимаем

Почему твой Второй Мозг не работает: ты неправильно понял Zettelkasten

Почему твой Второй Мозг не работает: ты неправильно понял Zettelkasten

Учебник по Excel за 15 минут

Учебник по Excel за 15 минут

Делаю нейросеть с нуля

Делаю нейросеть с нуля

Как происходит модернизация остаточных соединений [mHC]

Как происходит модернизация остаточных соединений [mHC]

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях

Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях

Отказ от территорий? / Войска оставили позиции

Отказ от территорий? / Войска оставили позиции

Преломление и «замедление» света | По мотивам лекции Ричарда Фейнмана

Преломление и «замедление» света | По мотивам лекции Ричарда Фейнмана

Какая нейросеть лучшая в вайб-кодинге в 2026? GPT vs Claude vs Gemini (vs все остальное)

Какая нейросеть лучшая в вайб-кодинге в 2026? GPT vs Claude vs Gemini (vs все остальное)

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Ultimate AI ML Roadmap for beginners

Ultimate AI ML Roadmap for beginners

Как работает ChatGPT: объясняем нейросети просто

Как работает ChatGPT: объясняем нейросети просто

Суть линейной алгебры: #12. Правило Крамера

Суть линейной алгебры: #12. Правило Крамера

Почему ТАК сложно создать синий светодиод? (Veritasium)

Почему ТАК сложно создать синий светодиод? (Veritasium)

Маска подсети — пояснения

Маска подсети — пояснения

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: infodtube@gmail.com