Funciones de Activación – Fundamentos de Deep Learning – (Parte 10)
Автор: Pepe Cantoral, Ph.D.
Загружено: 2021-03-27
Просмотров: 4792
En este video explico cómo se realiza la conexión entre capas en redes neuronales profundas y por qué es necesario utilizar una función de activación no lineal después de cada neurona. También presento cuáles son las funciones de activación más comúnmente utilizadas en la actualidad.
Así, en el siguiente video presentaré cómo conectar múltiples capas en una red neuronal para armar un modelo más complejo.
Con esto concluiremos la primera parte teórica de esta serie de videos y continuaremos con implementaciones en Python y PyTorch.
Acerca de la serie Fundamentos de Deep Learning con Python y PyTorch:
En esta serie de videos explico qué son las Redes Neuronales (Neural Networks) y qué es Aprendizaje Computacional (Machine Learning) así como Deep Learning. Empezamos con los principios matemáticos fundamentales hasta su implementación en código. Para esto, primero utilizaremos Python y Numpy para entender los principios de programación de Redes Neuronales incluyendo el algoritmo de retropropagación (backpropagation). Con estas bases, presentaremos el framework PyTorch y construiremos modelos más complejos como son Redes Neuronales Convolucionales (Convolutional Neural Networks - CNNs).
About the video series:
In this video series I will explain what Neural Networks are, and how Deep Neural Networks work, from the mathematical principles to their implementation in code. Firstly, we will use pure Python and Numpy to understand the fundamentals including backpropagation for a simple Fully Connected Network, and from there we will build on to Convolutional Neural Networks (CNN) using PyTorch. I will be uploading at least one new video every week until we reach different architectures of CNNs. Then, depending on the response and interest in the series I may cover newer models using Generative Adversarial Networks (GANs), and Recurrent Neural Networks.
Referencias:
[1] K. Hornik, “Approximation capabilities of multilayer feedforward networks,” Neural Networks, vol. 4, no. 2, pp. 251–257, Jan. 1991, doi: 10.1016/0893-6080(91)90009-T.
[2] G. Cybenkot, “Approximation by superpositions of a sigmoidal function,” p. 12.
[3] H. Zhang, Y. N. Dauphin, and T. Ma, “Fixup Initialization: Residual Learning Without Normalization,” arXiv:1901.09321 [cs, stat], Mar. 2019, Accessed: Jan. 11, 2021. [Online]. Available: http://arxiv.org/abs/1901.09321.
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: