Published On Oct 10, 2017
Esta es la tercera sesión de nuestra serie de tutoriales sobre Deep Learning, en la que hablaremos sobre cómo tratar secuencias, mediante el uso de Redes Neuronales Recurrentes.
En este tutorial enfocaremos el uso de Deep Learning sobre datasets, en los que el paso del tiempo tiene importancia. Para trabajar con secuencias temporales, veremos las Redes Neuronales Recurrentes y estudiaremos el algoritmo de construcción de las mismas: BackPropagation Through Time. Veremos alguna de sus deficiencias, como los Vanishing Gradients, y estudiaremos la manera de enfrentarse a ellas, con técnicas como las células LSTM (Long-Short Term Memory) y también alguna de las aplicaciones de estas últimas, como la generación de texto.
El objetivo de este tutorial es introducir el uso de secuencias en Deep Learning. En posteriores vídeos veremos tratamiento de imagen mediante Redes Neuronales Convolucionales.
Si quieres aprender más sobre Deep Learning y Redes Neuronales Recurrentes, puedes leer el siguiente post: http://www.stratio.com/blog/deep-lear...
Podréis encontrar las siguientes sesiones en nuestro canal de Youtube: / stratiobd