Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Adam optimizador - Algoritmos de optimización para redes neuronales

Автор: Pepe Cantoral, Ph.D.

Загружено: 2021-08-25

Просмотров: 8023

Описание:

Videos previos:
Momentum vs RMSProp vs Adam
   • Momentum vs RMSprop vs ADAM ¿Cuál es mejor?  

SGD con Momentum
   • Stochastic Gradient Descent con MOMENTUM. ...  

RMSProp
   • RMSProp- Algoritmos de optimización para r...  

Ya que estudiamos los fundamentos de Stochastic Gradient Descent con Momentum, y RMSProp, en este video estudiaremos el Algoritmo de Optimzación conocido como Adam u Optimizador Adam (Adam optimizer), el cual combina Momentum con RMSProp y es el optmizados más utilizado en la actualiadad.

Acerca de la serie Fundamentos de Deep Learning con Python y PyTorch:
En esta serie de videos explico qué son las Redes Neuronales (Neural Networks) y qué es Aprendizaje Computacional (Machine Learning) así como Deep Learning. Empezamos con los principios matemáticos fundamentales hasta su implementación en código. Para esto, primero utilizaremos Python y Numpy para entender los principios de programación de Redes Neuronales incluyendo el algoritmo de retropropagación (backpropagation). Con estas bases, presentaremos el framework PyTorch y construiremos modelos más complejos como son Redes Neuronales Convolucionales (Convolutional Neural Networks - CNNs).

About the video series:
In this video series I will explain what Neural Networks are, and how Deep Neural Networks work, from the mathematical principles to their implementation in code. Firstly, we will use pure Python and Numpy to understand the fundamentals including backpropagation for a simple Fully Connected Network, and from there we will build on to Convolutional Neural Networks (CNN) using PyTorch. I will be uploading at least one new video every week until we reach different architectures of CNNs. Then, depending on the response and interest in the series I may cover newer models using Generative Adversarial Networks (GANs), and Recurrent Neural Networks.

Adam optimizador - Algoritmos de optimización para redes neuronales

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

¿Cómo instalar Ubuntu en una partición para bootear junto con Windows?

¿Cómo instalar Ubuntu en una partición para bootear junto con Windows?

Stochastic Gradient Descent con MOMENTUM. Algoritmos de optimización para redes neuronales.

Stochastic Gradient Descent con MOMENTUM. Algoritmos de optimización para redes neuronales.

Подробное объяснение оптимизатора Adam | Глубокое обучение

Подробное объяснение оптимизатора Adam | Глубокое обучение

¿Qué es ResNet? – Redes Neuronales Residuales

¿Qué es ResNet? – Redes Neuronales Residuales

Funciones de activación a detalle (Redes neuronales)

Funciones de activación a detalle (Redes neuronales)

Sting - Shape of My Heart || Sylwester z Dwójką 2025

Sting - Shape of My Heart || Sylwester z Dwójką 2025

Orędzie noworoczne Prezydenta RP

Orędzie noworoczne Prezydenta RP

Самый важный алгоритм в машинном обучении

Самый важный алгоритм в машинном обучении

Sting - Every Breath You Take || Sylwester z Dwójką 2025

Sting - Every Breath You Take || Sylwester z Dwójką 2025

¡PyTorch vs TensorFlow! ¿Cuál es mejor?

¡PyTorch vs TensorFlow! ¿Cuál es mejor?

Internet baffled by probability riddle

Internet baffled by probability riddle

Aprende a PROGRAMAR una RED NEURONAL - Tensorflow, Keras, Sklearn

Aprende a PROGRAMAR una RED NEURONAL - Tensorflow, Keras, Sklearn

Backpropagation - Gradient Descent, Ejemplo completo –Fundamentos de Deep Learning – (Parte 9)

Backpropagation - Gradient Descent, Ejemplo completo –Fundamentos de Deep Learning – (Parte 9)

Sting - Message in the Bottle || Sylwester z Dwójką 2025

Sting - Message in the Bottle || Sylwester z Dwójką 2025

¿Qué son las REDES CONVOLUCIONALES?

¿Qué son las REDES CONVOLUCIONALES?

Tu primera red neuronal en Python y Tensorflow

Tu primera red neuronal en Python y Tensorflow

¿Qué es el Descenso del Gradiente? Algoritmo de Inteligencia Artificial | DotCSV

¿Qué es el Descenso del Gradiente? Algoritmo de Inteligencia Artificial | DotCSV

The Physicist Who Puts Penrose’s Quantum Ideas To The Test | Ivette Fuentes

The Physicist Who Puts Penrose’s Quantum Ideas To The Test | Ivette Fuentes

Padding, strides, max pooling y stacking en las REDES CONVOLUCIONALES

Padding, strides, max pooling y stacking en las REDES CONVOLUCIONALES

Gradiente de la Función de Pérdida “Cross Entropy” con Softmax - Deep Learning - (Parte 8)

Gradiente de la Función de Pérdida “Cross Entropy” con Softmax - Deep Learning - (Parte 8)

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]