Una nueva teoría explica cómo funciona el aprendizaje profundo, es decir, en dónde estamos al tratar de reproducir el funcionamiento del cerebro humano en un ordenador

Imagen: Interpretación de la red neuronal de Google Deep Dream

Ciudad de México (N22/Redacción).- Las redes neuronales profundas han aprendido a conversar, conducir coches, ganar videojuegos, pintar cuadros y ayudar a hacer descubrimientos científicos, así como también han confundido a sus creadores que nunca esperaban lo que se conoce como “ aprendizaje profundo”.

El aprendizaje profundo es un conjunto de algoritmos de aprendizaje automático que intenta traducir abstracciones de alto nivel en datos usando arquitecturas compuestas de transformaciones no lineales múltiples.  Ningún principio subyacente ha guiado el diseño de estos sistemas de aprendizaje, aparte de la vaga inspiración extraída de la arquitectura del cerebro. Al igual que un cerebro, una red neuronal profunda tiene capas de neuronas artificiales que son fruto de la memoria de la computadora.

Cuando una neurona se dispara, envía señales a las neuronas conectadas en la capa superior. Durante el aprendizaje profundo, las conexiones en la red se fortalecen o se debilitan según sea necesario para hacer que el sistema mejore al enviar señales de datos de entrada a través de las capas a las neuronas, después de que una profunda red neuronal ha aprendido de miles de muestras y puede identificar a los objetos con la misma precisión que la gente puede hacerlo. El salto mágico de los casos especiales a los conceptos generales durante el aprendizaje da a las redes neuronales profundas su poder.

En una conferencia en Berlín, Naftali Tishby, un informático y neurocientífico de la Universidad Hebrea de Jerusalén, presentó pruebas en apoyo de una nueva teoría que explica cómo funciona el aprendizaje profundo. Tishby argumenta que las redes neuronales profundas aprenden de acuerdo con un procedimiento llamado “cuello de botella de la información”, que él y dos colaboradores describieron por primera vez en términos puramente teóricos en 1999. La idea es que una red libera datos de entrada, que hacen ruido por los detalles extraños, como si estuvieran apretando la información a través de un cuello de botella, conservando sólo las características más relevantes para los conceptos generales. Los sorprendentes nuevos experimentos de Tishby y su estudiante, Ravid Shwartz-Ziv, revelan cómo este proceso de “apretado” ocurre durante el aprendizaje profundo, al menos en los casos que estudiaron, informó el sitio Wired.

“Creo que la idea de cuello de botella de información podría ser muy importante en futuras investigaciones de redes neuronales profundas”, dijo Alex Alemi de Google Research, quien ya ha desarrollado nuevos métodos de aproximación para aplicar un análisis de cuello de botella, “no solo como una herramienta teórica para entender por qué nuestras redes neuronales funcionan tan bien como lo hacen actualmente, sino también como una herramienta para construir nuevos objetivos y arquitecturas de redes”, dijo Alemi.

Algunos investigadores siguen siendo escépticos de que la teoría explique completamente el éxito del aprendizaje profundo, pero Kyle Cranmer, físico de partículas de la Universidad de Nueva York que utiliza el aprendizaje automático para analizar las colisiones de partículas en el Gran colisionador de hadrones, dijo que como principio general de aprendizaje “de alguna manera huele bien”.