Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Momentum vs RMSprop vs ADAM ¿Cuál es mejor?

Автор: Pepe Cantoral, Ph.D.

Загружено: 2021-08-07

Просмотров: 2815

Описание:

00:00 Introducción
03:21 Inicia explicación utilizando PyTorch

Código:
https://github.com/JACantoral/DL_fund...

Código para procesar MNIST:
https://github.com/JACantoral/DL_fund...

Hemos implementado una red neuronal multicapa haciendo uso exclusivamente de Python y también haciendo uso de PyTorch, en ambos casos utilizando Stochastic Gradient Descent. Sin embargo, a pesar de que funciona bien en un modelo pequeño con MNIST, en aplicaciones con bases de datos más grandes y modelos más complejos, SGD no es la mejor opción. Así tenemos métodos que hacen uso de un promedio acumulado del gradiente para actualizar los parámetros, permitiendo una convergencia más rápida a un mínimo. En este video muestro cómo implementar en PyTorch y comparo tres métodos de optimización muy importantes: SGD con Momentum, RMSProp y ADAM. En el siguiente video, explico el fundamento matemático de dichos algoritmos.


Acerca de la serie Fundamentos de Deep Learning con Python y PyTorch:
En esta serie de videos explico qué son las Redes Neuronales (Neural Networks) y qué es Aprendizaje Computacional (Machine Learning) así como Deep Learning. Empezamos con los principios matemáticos fundamentales hasta su implementación en código. Para esto, primero utilizaremos Python y Numpy para entender los principios de programación de Redes Neuronales incluyendo el algoritmo de retropropagación (backpropagation). Con estas bases, presentaremos el framework PyTorch y construiremos modelos más complejos como son Redes Neuronales Convolucionales (Convolutional Neural Networks - CNNs).

About the video series:
In this video series I will explain what Neural Networks are, and how Deep Neural Networks work, from the mathematical principles to their implementation in code. Firstly, we will use pure Python and Numpy to understand the fundamentals including backpropagation for a simple Fully Connected Network, and from there we will build on to Convolutional Neural Networks (CNN) using PyTorch. I will be uploading at least one new video every week until we reach different architectures of CNNs. Then, depending on the response and interest in the series I may cover newer models using Generative Adversarial Networks (GANs), and Recurrent Neural Networks.

Momentum vs RMSprop vs ADAM ¿Cuál es mejor?

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Stochastic Gradient Descent con MOMENTUM. Algoritmos de optimización para redes neuronales.

Stochastic Gradient Descent con MOMENTUM. Algoritmos de optimización para redes neuronales.

Tu primera red neuronal en Python y Tensorflow

Tu primera red neuronal en Python y Tensorflow

Modelos secuenciales y REDES NEURONALES RECURRENTES

Modelos secuenciales y REDES NEURONALES RECURRENTES

¿Cómo entrenar embeddings desde cero?

¿Cómo entrenar embeddings desde cero?

4 Hours Chopin for Studying, Concentration & Relaxation

4 Hours Chopin for Studying, Concentration & Relaxation

RMSProp (C2W2L07)

RMSProp (C2W2L07)

Gradiente Descendente Paso a Paso con Python: Un Algoritmo de Optimización para Machine Learning

Gradiente Descendente Paso a Paso con Python: Un Algoritmo de Optimización para Machine Learning

Что происходит с нейросетью во время обучения?

Что происходит с нейросетью во время обучения?

RMSProp- Algoritmos de optimización para redes neuronales -

RMSProp- Algoritmos de optimización para redes neuronales -

Урок 16 — Оптимизатор AdaDelta и RMSprop

Урок 16 — Оптимизатор AdaDelta и RMSprop

Карлсен УРОНИЛ ВСЕ ФИГУРЫ и получил техническое поражение! Трагедия в партии с Мартиросяном

Карлсен УРОНИЛ ВСЕ ФИГУРЫ и получил техническое поражение! Трагедия в партии с Мартиросяном

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Redes Neuronales - Backpropagation

Redes Neuronales - Backpropagation

Intentamos entrenar una red neuronal (VGG-16) con una TPU y pasa esto ...

Intentamos entrenar una red neuronal (VGG-16) con una TPU y pasa esto ...

Descenso de Gradiente. Cómo Aprenden las Redes Neuronales | Aprendizaje Profundo. Capítulo 2

Descenso de Gradiente. Cómo Aprenden las Redes Neuronales | Aprendizaje Profundo. Capítulo 2

👁‍🗨 ¡Redes Neuronales CONVOLUCIONALES! ¿Cómo funcionan?

👁‍🗨 ¡Redes Neuronales CONVOLUCIONALES! ¿Cómo funcionan?

Adam optimizador - Algoritmos de optimización para redes neuronales

Adam optimizador - Algoritmos de optimización para redes neuronales

Формулы для обратного распространения ошибки | Глава 4. Глубокое обучение

Формулы для обратного распространения ошибки | Глава 4. Глубокое обучение

¡Cómo programar un Transformer desde CERO! (From Scratch!)

¡Cómo programar un Transformer desde CERO! (From Scratch!)

¿Qué es el Descenso del Gradiente? Algoritmo de Inteligencia Artificial | DotCSV

¿Qué es el Descenso del Gradiente? Algoritmo de Inteligencia Artificial | DotCSV

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]