Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
dTub
Скачать

Funciones de Activación – Fundamentos de Deep Learning – (Parte 10)

Автор: Pepe Cantoral, Ph.D.

Загружено: 2021-03-27

Просмотров: 4792

Описание:

En este video explico cómo se realiza la conexión entre capas en redes neuronales profundas y por qué es necesario utilizar una función de activación no lineal después de cada neurona. También presento cuáles son las funciones de activación más comúnmente utilizadas en la actualidad.
Así, en el siguiente video presentaré cómo conectar múltiples capas en una red neuronal para armar un modelo más complejo.
Con esto concluiremos la primera parte teórica de esta serie de videos y continuaremos con implementaciones en Python y PyTorch.

Acerca de la serie Fundamentos de Deep Learning con Python y PyTorch:
En esta serie de videos explico qué son las Redes Neuronales (Neural Networks) y qué es Aprendizaje Computacional (Machine Learning) así como Deep Learning. Empezamos con los principios matemáticos fundamentales hasta su implementación en código. Para esto, primero utilizaremos Python y Numpy para entender los principios de programación de Redes Neuronales incluyendo el algoritmo de retropropagación (backpropagation). Con estas bases, presentaremos el framework PyTorch y construiremos modelos más complejos como son Redes Neuronales Convolucionales (Convolutional Neural Networks - CNNs).

About the video series:
In this video series I will explain what Neural Networks are, and how Deep Neural Networks work, from the mathematical principles to their implementation in code. Firstly, we will use pure Python and Numpy to understand the fundamentals including backpropagation for a simple Fully Connected Network, and from there we will build on to Convolutional Neural Networks (CNN) using PyTorch. I will be uploading at least one new video every week until we reach different architectures of CNNs. Then, depending on the response and interest in the series I may cover newer models using Generative Adversarial Networks (GANs), and Recurrent Neural Networks.

Referencias:

[1] K. Hornik, “Approximation capabilities of multilayer feedforward networks,” Neural Networks, vol. 4, no. 2, pp. 251–257, Jan. 1991, doi: 10.1016/0893-6080(91)90009-T.
[2] G. Cybenkot, “Approximation by superpositions of a sigmoidal function,” p. 12.
[3] H. Zhang, Y. N. Dauphin, and T. Ma, “Fixup Initialization: Residual Learning Without Normalization,” arXiv:1901.09321 [cs, stat], Mar. 2019, Accessed: Jan. 11, 2021. [Online]. Available: http://arxiv.org/abs/1901.09321.

Funciones de Activación – Fundamentos de Deep Learning –  (Parte 10)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео mp4

  • Информация по загрузке:

Скачать аудио mp3

Похожие видео

Redes Neuronales Multi-Capa / Deep Neural Networks – Fundamentos de Deep Learning -(Teoría parte 11)

Redes Neuronales Multi-Capa / Deep Neural Networks – Fundamentos de Deep Learning -(Teoría parte 11)

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Funciones de activación a detalle (Redes neuronales)

Funciones de activación a detalle (Redes neuronales)

¿Qué es una Red Neuronal? | Aprendizaje Profundo. Capítulo 1

¿Qué es una Red Neuronal? | Aprendizaje Profundo. Capítulo 1

Как работала машина

Как работала машина "Энигма"?

Backpropagation - Gradient Descent, Ejemplo completo –Fundamentos de Deep Learning – (Parte 9)

Backpropagation - Gradient Descent, Ejemplo completo –Fundamentos de Deep Learning – (Parte 9)

Что происходит с нейросетью во время обучения?

Что происходит с нейросетью во время обучения?

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

¿Qué es una Red Neuronal? Parte 3.5 : Las Matemáticas de Backpropagation | DotCSV

¿Qué es una Red Neuronal? Parte 3.5 : Las Matemáticas de Backpropagation | DotCSV

Краткое объяснение больших языковых моделей

Краткое объяснение больших языковых моделей

Создание нейронной сети С НУЛЯ (без Tensorflow/Pytorch, только NumPy и математика)

Создание нейронной сети С НУЛЯ (без Tensorflow/Pytorch, только NumPy и математика)

Объяснение функций активации в нейронных сетях | Учебное пособие по глубокому обучению

Объяснение функций активации в нейронных сетях | Учебное пособие по глубокому обучению

Физически-информированные нейронные сети (PINN) [Машинное обучение с учетом физики]

Физически-информированные нейронные сети (PINN) [Машинное обучение с учетом физики]

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Как Сделать Настольный ЭЛЕКТРОЭРОЗИОННЫЙ Станок?

Как Сделать Настольный ЭЛЕКТРОЭРОЗИОННЫЙ Станок?

Funciones de Activación de Redes Neuronales: Sigmoide, ReLU, ELU, Tangente hiperbólica, Softplus y ➕

Funciones de Activación de Redes Neuronales: Sigmoide, ReLU, ELU, Tangente hiperbólica, Softplus y ➕

Gradiente Descendente desde cero con Python | Deep Learning 101

Gradiente Descendente desde cero con Python | Deep Learning 101

Hack Pack – Введение в Arduino

Hack Pack – Введение в Arduino

Визуализация гравитации

Визуализация гравитации

© 2025 dtub. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]