Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Backpropagation - Gradient Descent, Ejemplo completo –Fundamentos de Deep Learning – (Parte 9)

Автор: Pepe Cantoral, Ph.D.

Загружено: 2021-03-19

Просмотров: 6247

Описание:

En este video presento un ejemplo completo de una iteración de un modelo sencillo de Red Neuronal con una solo capa. Así, mostramos cómo obtener la función de pérdida para un ejemplo en particular, seguido de cómo calcular el gradiente de dicha función de pérdida con respecto a los parámetros W y b. Con esto se actualizan los parámetros W y b, resultando en una reducción de la función de pérdida. Además de explicar las operaciones matemáticas necesarias, también muestro fragmentos de código para implementar dicho proceso.
Así, en el siguiente video presentaré una recapitulación de los temas que hemos visto, así como aspectos prácticos para implementar una red neuronal multicapa. Con esto concluiremos la primera parte teórica de esta serie de videos y continuaremos con implementaciones en Python y PyTorch.

Video - Derivada de la función de pérdida
   • Gradiente de la Función de Pérdida “Cross ...  

Acerca de la serie Fundamentos de Deep Learning con Python y PyTorch:
En esta serie de videos explico qué son las Redes Neuronales (Neural Networks) y qué es Aprendizaje Computacional (Machine Learning) así como Deep Learning. Empezamos con los principios matemáticos fundamentales hasta su implementación en código. Para esto, primero utilizaremos Python y Numpy para entender los principios de programación de Redes Neuronales incluyendo el algoritmo de retropropagación (backpropagation). Con estas bases, presentaremos el framework PyTorch y construiremos modelos más complejos como son Redes Neuronales Convolucionales (Convolutional Neural Networks - CNNs).

About the video series:
In this video series I will explain what Neural Networks are, and how Deep Neural Networks work, from the mathematical principles to their implementation in code. Firstly, we will use pure Python and Numpy to understand the fundamentals including backpropagation for a simple Fully Connected Network, and from there we will build on to Convolutional Neural Networks (CNN) using PyTorch. I will be uploading at least one new video every week until we reach different architectures of CNNs. Then, depending on the response and interest in the series I may cover newer models using Generative Adversarial Networks (GANs), and Recurrent Neural Networks.

Backpropagation - Gradient Descent, Ejemplo completo –Fundamentos de Deep Learning – (Parte 9)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Funciones de Activación – Fundamentos de Deep Learning –  (Parte 10)

Funciones de Activación – Fundamentos de Deep Learning – (Parte 10)

Stochastic Gradient Descent con MOMENTUM. Algoritmos de optimización para redes neuronales.

Stochastic Gradient Descent con MOMENTUM. Algoritmos de optimización para redes neuronales.

Redes Neuronales Multi-Capa / Deep Neural Networks – Fundamentos de Deep Learning -(Teoría parte 11)

Redes Neuronales Multi-Capa / Deep Neural Networks – Fundamentos de Deep Learning -(Teoría parte 11)

“Backpropagation” – Fundamentos de Deep Learning – (Parte 7)

“Backpropagation” – Fundamentos de Deep Learning – (Parte 7)

Gradient Descent – REDES NEURONALES - (Parte 5)

Gradient Descent – REDES NEURONALES - (Parte 5)

BACKPROPAGATION: Cómo Aprende Matemáticamente una Red Neuronal Artificial Paso a Paso con Python

BACKPROPAGATION: Cómo Aprende Matemáticamente una Red Neuronal Artificial Paso a Paso con Python

¡Red Neuronal usando PyTorch! PyTorch tutorial

¡Red Neuronal usando PyTorch! PyTorch tutorial

Red Neuronal Convolucional en PyTorch / Tutorial de PyTorch para CNN - Parte 1

Red Neuronal Convolucional en PyTorch / Tutorial de PyTorch para CNN - Parte 1

Backpropagation  (Retropropagación)

Backpropagation (Retropropagación)

¿Por qué usamos el gradiente para entrenar Redes Neuronales? Ejemplo - Deep Learning - (Parte 6)

¿Por qué usamos el gradiente para entrenar Redes Neuronales? Ejemplo - Deep Learning - (Parte 6)

Tutorial de Transfer Learning utilizando PyTorch y  RESNET

Tutorial de Transfer Learning utilizando PyTorch y RESNET

The spelled-out intro to neural networks and backpropagation: building micrograd

The spelled-out intro to neural networks and backpropagation: building micrograd

Формулы для обратного распространения ошибки | Глава 4. Глубокое обучение

Формулы для обратного распространения ошибки | Глава 4. Глубокое обучение

Funciones de activación a detalle (Redes neuronales)

Funciones de activación a detalle (Redes neuronales)

Red Neuronal Desde Cero. ¡Sólo Python! - PARTE 2

Red Neuronal Desde Cero. ¡Sólo Python! - PARTE 2

Aprende a PROGRAMAR una RED NEURONAL - Tensorflow, Keras, Sklearn

Aprende a PROGRAMAR una RED NEURONAL - Tensorflow, Keras, Sklearn

Red Neuronal Desde Cero. ¡Sólo Python!

Red Neuronal Desde Cero. ¡Sólo Python!

¿Cómo aprenden las Redes Neuronales? Gradient Descent | Backpropagation

¿Cómo aprenden las Redes Neuronales? Gradient Descent | Backpropagation

Создание нейронной сети С НУЛЯ (без Tensorflow/Pytorch, только NumPy и математика)

Создание нейронной сети С НУЛЯ (без Tensorflow/Pytorch, только NumPy и математика)

¿Qué es el GRADIENTE DESCENDENTE?

¿Qué es el GRADIENTE DESCENDENTE?

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]