Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Stochastic Gradient Descent con MOMENTUM. Algoritmos de optimización para redes neuronales.

Автор: Pepe Cantoral, Ph.D.

Загружено: 2021-08-16

Просмотров: 4954

Описание:

En el video previo mostramos cómo al utilizar algoritmos de optimización basados en el uso de un promedio ponderado exponencial, por ejemplo Stochastic Gradient Descent con Momentum, RMSProp y Adam, llegamos mucho más rápido al mínimo de nuestra función de costo. En este video explico de forma detallada el principio matemático que soporta estos métodos, en particular empiezo con SGD con Momentum.

Adam paper
Kingma, D. P., & Ba, J. (2017). Adam: A Method for Stochastic Optimization. ArXiv:1412.6980 [Cs]. http://arxiv.org/abs/1412.6980


Acerca de la serie Fundamentos de Deep Learning con Python y PyTorch:
En esta serie de videos explico qué son las Redes Neuronales (Neural Networks) y qué es Aprendizaje Computacional (Machine Learning) así como Deep Learning. Empezamos con los principios matemáticos fundamentales hasta su implementación en código. Para esto, primero utilizaremos Python y Numpy para entender los principios de programación de Redes Neuronales incluyendo el algoritmo de retropropagación (backpropagation). Con estas bases, presentaremos el framework PyTorch y construiremos modelos más complejos como son Redes Neuronales Convolucionales (Convolutional Neural Networks - CNNs).

About the video series:
In this video series I will explain what Neural Networks are, and how Deep Neural Networks work, from the mathematical principles to their implementation in code. Firstly, we will use pure Python and Numpy to understand the fundamentals including backpropagation for a simple Fully Connected Network, and from there we will build on to Convolutional Neural Networks (CNN) using PyTorch. I will be uploading at least one new video every week until we reach different architectures of CNNs. Then, depending on the response and interest in the series I may cover newer models using Generative Adversarial Networks (GANs), and Recurrent Neural Networks.

Stochastic Gradient Descent con MOMENTUM. Algoritmos de optimización para redes neuronales.

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

RMSProp- Algoritmos de optimización para redes neuronales -

RMSProp- Algoritmos de optimización para redes neuronales -

Backpropagation - Gradient Descent, Ejemplo completo –Fundamentos de Deep Learning – (Parte 9)

Backpropagation - Gradient Descent, Ejemplo completo –Fundamentos de Deep Learning – (Parte 9)

¿Qué son Word EMBEDDINGS? ¡Explorando Embeddings con GloVe y Python!

¿Qué son Word EMBEDDINGS? ¡Explorando Embeddings con GloVe y Python!

Вейвлеты: математический микроскоп

Вейвлеты: математический микроскоп

Modelos secuenciales y REDES NEURONALES RECURRENTES

Modelos secuenciales y REDES NEURONALES RECURRENTES

Momentum vs RMSprop vs ADAM ¿Cuál es mejor?

Momentum vs RMSprop vs ADAM ¿Cuál es mejor?

Gradient Descent, Step-by-Step

Gradient Descent, Step-by-Step

Управление поведением LLM без тонкой настройки

Управление поведением LLM без тонкой настройки

Карлсен УРОНИЛ ВСЕ ФИГУРЫ и получил техническое поражение! Трагедия в партии с Мартиросяном

Карлсен УРОНИЛ ВСЕ ФИГУРЫ и получил техническое поражение! Трагедия в партии с Мартиросяном

Adam optimizador - Algoritmos de optimización para redes neuronales

Adam optimizador - Algoritmos de optimización para redes neuronales

Урок 12 — Стохастический градиентный спуск против градиентного спуска

Урок 12 — Стохастический градиентный спуск против градиентного спуска

20 концепций искусственного интеллекта, объясненных за 40 минут

20 концепций искусственного интеллекта, объясненных за 40 минут

Формулы для обратного распространения ошибки | Глава 4. Глубокое обучение

Формулы для обратного распространения ошибки | Глава 4. Глубокое обучение

Python - Gradient Descent: Step-by-Step to Find the Minimum!

Python - Gradient Descent: Step-by-Step to Find the Minimum!

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Tutorial de Transfer Learning utilizando PyTorch y  RESNET

Tutorial de Transfer Learning utilizando PyTorch y RESNET

DEEPLEARNING: Como elegir un optimizador?

DEEPLEARNING: Como elegir un optimizador?

Gradient Descent – REDES NEURONALES - (Parte 5)

Gradient Descent – REDES NEURONALES - (Parte 5)

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

¿Qué es el GRADIENTE DESCENDENTE?

¿Qué es el GRADIENTE DESCENDENTE?

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]