Inmediatamente cuando el Dr. Blake Richards escuchó sobre el aprendizaje profundo, se dio cuenta de que se enfrentaba a algo más que un método que revolucionaría la inteligencia artificial. Se dio cuenta de que estaba mirando algo fundamental del cerebro humano. Era principios de la década de 2000 y Richards estaba impartiendo un curso en la Universidad de Toronto con Jeff Hinton. A Hinton, quien estuvo detrás de la creación del algoritmo que conquistó el mundo, se le ofreció un curso introductorio sobre su método de enseñanza, inspirado en el cerebro humano.
Las palabras clave aquí son "inspiradas en el cerebro". A pesar de la condena de Richards, la apuesta jugó en su contra. El cerebro humano, como resultó, carece de una función importante que está programada en algoritmos de aprendizaje profundo. En la superficie, estos algoritmos violaron hechos biológicos básicos ya probados por neurocientíficos.
Pero, ¿y si el aprendizaje profundo y el cerebro fueran realmente compatibles?
Y así, en un nuevo estudio publicado en eLife, Richards, trabajando con DeepMind, propuso un nuevo algoritmo basado en la estructura biológica de las neuronas en la neocorteza. La corteza, la corteza cerebral, es el hogar de funciones cognitivas superiores como el razonamiento, la previsión y el pensamiento flexible.
norte
El equipo combinó sus neuronas artificiales en una red en capas y lo desafió a la tarea de la visión por computadora clásica: identificar números escritos a mano.
El nuevo algoritmo hizo un excelente trabajo. Pero otra cosa es importante: analizó ejemplos para el aprendizaje de la misma manera que lo hacen los algoritmos de aprendizaje profundo, pero se basó completamente en la biología fundamental del cerebro.
"El aprendizaje profundo es posible en una estructura biológica", concluyeron los científicos.
Dado que este modelo es actualmente una versión para computadora, Richards espera pasar el testigo a neurocientíficos experimentales que puedan probar si tal algoritmo funciona en un cerebro real.
Video promocional:
Si es así, los datos se pueden enviar a los científicos informáticos para desarrollar algoritmos masivamente paralelos y eficientes con los que se ejecutarán nuestras máquinas. Este es el primer paso hacia la fusión de las dos áreas en una "danza virtuosa" de descubrimiento e innovación.
Encontrar el chivo expiatorio
Si bien probablemente haya escuchado que la IA venció recientemente a lo mejor de lo mejor en Go, difícilmente sabe exactamente cómo funcionan los algoritmos detrás de esta IA.
En pocas palabras, el aprendizaje profundo se basa en una red neuronal artificial con "neuronas" virtuales. Como un rascacielos alto, la red está estructurada en una jerarquía: las neuronas de bajo nivel procesan la entrada, por ejemplo, barras horizontales o verticales que componen el número 4, y las neuronas de alto nivel procesan aspectos abstractos del número 4.
Para entrenar la red, le das ejemplos de lo que estás buscando. La señal se propaga a través de la red (sube los escalones del edificio), y cada neurona intenta ver algo fundamental en el trabajo de los "cuatro".
A medida que los niños aprenden cosas nuevas, la red no funciona bien al principio. Da todo lo que, en su opinión, se parece al número cuatro, y obtienes imágenes en el espíritu de Picasso.
Pero así es exactamente como procede el aprendizaje: el algoritmo hace coincidir la salida con la entrada ideal y calcula la diferencia entre los dos (lea: errores). Los errores "se propagan de nuevo" a través de la red, entrenando cada neurona, dicen, esto no es lo que buscas, mira mejor.
Después de millones de ejemplos y repeticiones, la web comienza a funcionar sin problemas.
La señal de error es extremadamente importante para el aprendizaje. Sin una "retropropagación de errores" eficaz, la red no sabrá cuáles de sus neuronas están mal. En busca de un chivo expiatorio, la inteligencia artificial se mejora.
El cerebro también lo hace. ¿Pero cómo? No tenemos ni idea.
Callejón sin salida biológica
Lo obvio es que la solución de aprendizaje profundo no funciona.
Propagar un error hacia atrás es una característica extremadamente importante. Requiere cierta infraestructura para funcionar correctamente.
Primero, todas las neuronas de la red deben recibir una notificación de error. Pero en el cerebro, las neuronas están conectadas solo a unos pocos (si es que hay alguno) socios posteriores. Para que la propagación hacia atrás funcione en el cerebro, las neuronas en los primeros niveles deben percibir información de miles de millones de conexiones en los canales descendentes, y esto es biológicamente imposible.
norte
Y aunque algunos algoritmos de aprendizaje profundo adaptan una forma local de retropropagación de errores, esencialmente entre neuronas, requiere que sus conexiones de ida y vuelta sean simétricas. En las sinapsis del cerebro, esto casi nunca sucede.
Los algoritmos más modernos adaptan una estrategia ligeramente diferente mediante la implementación de una ruta de retroalimentación separada que ayuda a las neuronas a encontrar errores localmente. Si bien esto es más factible biológicamente, el cerebro no tiene una red informática separada dedicada a encontrar chivos expiatorios.
Pero tiene neuronas con estructuras complejas, en contraste con las "bolas" homogéneas que se utilizan actualmente en el aprendizaje profundo.
Redes de ramificación
Los científicos se inspiran en las células piramidales que llenan la corteza humana.
“La mayoría de estas neuronas tienen forma de árboles, con sus 'raíces' en lo profundo del cerebro y 'ramas' que salen a la superficie”, dice Richards. "Sorprendentemente, las raíces reciben un conjunto de entradas y las ramas se vuelven diferentes".
Es curioso, pero la estructura de las neuronas a menudo resulta ser "exactamente la forma en que se necesita" para resolver eficazmente un problema computacional. Tomemos el procesamiento sensorial, por ejemplo: la parte inferior de las neuronas piramidales es donde deberían estar para recibir información sensorial, y la parte superior está convenientemente ubicada para transmitir errores a través de la retroalimentación.
¿Podría esta compleja estructura ser una solución evolutiva para lidiar con la señal incorrecta?
Los científicos han creado una red neuronal multicapa basada en algoritmos anteriores. Pero en lugar de neuronas homogéneas, le dieron neuronas en las capas medias, intercaladas entre la entrada y la salida, similares a las reales. Al aprender de los números escritos a mano, el algoritmo funcionó mucho mejor que una red de una sola capa, a pesar de la ausencia de la retropropagación clásica del error. Las propias estructuras celulares podrían identificar el error. Luego, en el momento adecuado, la neurona combinó ambas fuentes de información para encontrar la mejor solución.
Existe una base biológica para esto: los neurocientíficos saben desde hace mucho tiempo que las ramas de entrada de una neurona realizan cálculos locales que pueden integrarse con señales de retropropagación de las ramas de salida. Pero no sabemos si el cerebro realmente funciona de esta manera, por lo que Richards encargó a neurocientíficos que lo averiguaran.
Además, esta red maneja el problema de forma similar al método tradicional de aprendizaje profundo: utiliza una estructura en capas para extraer ideas cada vez más abstractas sobre cada número.
"Esta es una característica del aprendizaje profundo", explican los autores.
Cerebro de aprendizaje profundo
Sin duda, habrá más giros y vueltas en esta historia, ya que los científicos informáticos están incorporando más detalles biológicos a los algoritmos de IA. Richards y su equipo analizan una función predictiva de arriba hacia abajo, donde las señales de niveles más altos afectan directamente cómo los niveles más bajos responden a la entrada.
La retroalimentación de capas superiores no solo mejora la señalización de errores; también puede alentar a las neuronas de menor procesamiento a funcionar "mejor" en tiempo real, dice Richards. Hasta ahora, la red no ha superado a otras redes de aprendizaje profundo no biológico. Pero no importa.
"El aprendizaje profundo ha tenido un gran impacto en la IA, pero hasta ahora su impacto en la neurociencia ha sido limitado", dicen los autores del estudio. Ahora los neurocientíficos tendrán una excusa para realizar una prueba experimental y averiguar si la estructura de las neuronas subyace al algoritmo natural del aprendizaje profundo. Quizás en los próximos diez años, comience un intercambio de datos mutuamente beneficioso entre neurocientíficos e investigadores de inteligencia artificial.
Ilya Khel