¿Qué Está Pasando Con La Inteligencia Artificial? Análisis De 16 625 Obras Durante Los últimos 25 Años - Vista Alternativa

Tabla de contenido:

¿Qué Está Pasando Con La Inteligencia Artificial? Análisis De 16 625 Obras Durante Los últimos 25 Años - Vista Alternativa
¿Qué Está Pasando Con La Inteligencia Artificial? Análisis De 16 625 Obras Durante Los últimos 25 Años - Vista Alternativa

Vídeo: ¿Qué Está Pasando Con La Inteligencia Artificial? Análisis De 16 625 Obras Durante Los últimos 25 Años - Vista Alternativa

Vídeo: ¿Qué Está Pasando Con La Inteligencia Artificial? Análisis De 16 625 Obras Durante Los últimos 25 Años - Vista Alternativa
Vídeo: ¿QUÉ ES LA INTELIGENCIA ARTIFICIAL?🤖🧠 3 acciones para invertir en ella❗📈 2024, Septiembre
Anonim

Casi todo lo que escuchas sobre inteligencia artificial hoy proviene del aprendizaje profundo. Esta categoría de algoritmos trabaja con estadísticas para encontrar patrones en los datos y ha demostrado ser extremadamente poderosa para imitar las habilidades humanas, como nuestra capacidad para ver y oír. Hasta cierto punto, puede incluso imitar nuestra capacidad de razonar. Estos algoritmos admiten la búsqueda de Google, el suministro de noticias de Facebook, el motor de recomendación de Netflix y dan forma a industrias como la atención médica y la educación.

Cómo se desarrolla el aprendizaje profundo

A pesar de que el aprendizaje profundo prácticamente trajo la inteligencia artificial al público por sí solo, representa solo un pequeño destello en la tarea histórica de la humanidad de reproducir su propia inteligencia. Ha estado a la vanguardia de esta búsqueda durante menos de una década. Si dejamos de lado toda la historia de esta zona, es fácil entender que pronto también puede desaparecer.

Los repentinos altibajos de varios métodos han caracterizado durante mucho tiempo la investigación de la IA, dijo. Ha habido una intensa competencia entre diferentes ideas cada década. Luego, de vez en cuando, el interruptor cambia y toda la comunidad comienza a hacer una cosa.

Nuestros colegas de MIT Technology Review querían visualizar estos problemas y empezar. Con este fin, recurrieron a una de las mayores bases de datos de artículos científicos abiertos conocida como arXiv. Descargaron extractos de un total de 16.625 artículos disponibles en la sección de IA hasta el 18 de noviembre de 2018 y rastrearon las palabras mencionadas a lo largo de los años para ver cómo ha evolucionado el campo.

A través de su análisis, surgieron tres tendencias principales: el cambio hacia el aprendizaje automático a finales de los 90 y principios de los 2000, el aumento de la popularidad de las redes neuronales que comenzó a principios de la década de 2010 y el aumento del aprendizaje por refuerzo en los últimos años.

Video promocional:

Pero primero, algunas advertencias. Primero, la sección arXiv con IA se remonta a 1993, y el término "inteligencia artificial" se remonta a la década de 1950, por lo que la base de datos en sí solo representa los capítulos finales de la historia del campo. En segundo lugar, los documentos agregados a la base de datos cada año representan solo una fracción del trabajo que se está realizando en esta área en este momento. Sin embargo, arXiv ofrece un recurso excelente para identificar algunas de las principales tendencias de investigación y para ver el tira y afloja entre diferentes campos ideológicos.

El paradigma del aprendizaje automático

El cambio más grande que encontraron los investigadores fue el alejamiento de los sistemas basados en el conocimiento hacia principios de la década de 2000. Estos sistemas informáticos se basan en la idea de que es posible codificar todo el conocimiento humano en un sistema de reglas. En cambio, los científicos recurrieron al aprendizaje automático, la categoría principal de algoritmos que incluyen el aprendizaje profundo.

Entre las 100 palabras mencionadas, las asociadas con los sistemas basados en el conocimiento ("lógica", "restricciones" y "regla") fueron las que más disminuyeron. Y los relacionados con el aprendizaje automático ("datos", "red", "rendimiento") fueron los que más crecieron.

La razón de este cambio de clima es muy simple. En la década de 1980, los sistemas basados en el conocimiento estaban ganando popularidad entre los fanáticos, gracias al entusiasmo en torno a proyectos ambiciosos que intentaban recrear el sentido común en las máquinas. Pero cuando estos proyectos se desarrollaron, los investigadores se enfrentaron a un gran desafío: se tenían que codificar demasiadas reglas para que el sistema hiciera algo útil. Esto generó un aumento de los costos y ralentizó significativamente los procesos en curso.

La respuesta a este problema es el aprendizaje automático. En lugar de requerir que las personas codifiquen manualmente cientos de miles de reglas, este enfoque programa las máquinas para que extraigan automáticamente esas reglas de una pila de datos. Asimismo, este campo se ha alejado de los sistemas basados en el conocimiento y se ha orientado hacia la mejora del aprendizaje automático.

norte

El boom de las redes neuronales

Dentro del nuevo paradigma del aprendizaje automático, la transición al aprendizaje profundo no ocurrió de la noche a la mañana. En cambio, un análisis de términos clave ha demostrado que los científicos han probado muchos métodos además de las redes neuronales, los principales mecanismos del aprendizaje profundo. Otros métodos populares incluyen redes bayesianas, máquinas de vectores de soporte y algoritmos evolutivos, todos los cuales utilizan diferentes enfoques para encontrar patrones en los datos.

Durante las décadas de 1990 y 2000, hubo una fuerte competencia entre estos métodos. Luego, en 2012, un avance espectacular llevó a otro cambio en el clima. Durante la competencia anual ImageNet para acelerar el progreso en la visión por computadora, un investigador llamado Jeffrey Hinton, junto con sus colegas de la Universidad de Toronto, logró la mejor precisión en el reconocimiento de imágenes con un margen de error de poco más del 10%.

La técnica de aprendizaje profundo que utilizó ha generado una nueva ola de investigación, primero en la comunidad de visualización y luego más allá. A medida que más y más científicos comenzaron a usarlo para lograr resultados impresionantes, la popularidad de esta técnica, junto con la popularidad de las redes neuronales, se ha disparado.

El crecimiento del aprendizaje por refuerzo

El análisis mostró que unos años después del apogeo del aprendizaje profundo, ha habido un tercer y último cambio en la investigación de la IA.

Además de los diversos métodos de aprendizaje automático, existen tres tipos diferentes: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje reforzado. El aprendizaje supervisado, que implica alimentar datos etiquetados a la máquina, es el más utilizado y también tiene las aplicaciones más prácticas en la actualidad. Sin embargo, en los últimos años, el aprendizaje por refuerzo, que imita el proceso de aprendizaje de los animales a través de zanahorias y palos, castigos y recompensas, ha provocado un rápido aumento de referencias en las obras.

La idea en sí no es nueva, pero no ha funcionado durante muchas décadas. “Los especialistas en aprendizaje supervisado se rieron de los especialistas en aprendizaje por refuerzo”, dice Domingos. Pero al igual que con el aprendizaje profundo, un punto de inflexión puso de repente en primer plano el método.

Ese momento llegó en octubre de 2015, cuando AlphaGo de DeepMind, entrenado con refuerzo, derrotó al campeón mundial en el antiguo juego del go. El impacto en la comunidad investigadora fue inmediato.

Los próximos diez años

El MIT Technology Review proporciona solo la última instantánea de la competencia entre las ideas que caracterizan la investigación de IA. Sin embargo, ilustra la inconsistencia de la búsqueda de la duplicación de inteligencia. “Es importante comprender que nadie sabe cómo resolver este problema”, dice Domingos.

Muchos de los métodos que se han utilizado durante 25 años surgieron aproximadamente al mismo tiempo en la década de 1950 y no han logrado igualar los desafíos y éxitos de cada década. Las redes neuronales, por ejemplo, alcanzaron su punto máximo en los años 60 y ligeramente en los 80, pero casi mueren antes de recuperar su popularidad gracias al aprendizaje profundo.

Cada década, en otras palabras, ha visto el dominio de una técnica diferente: redes neuronales a finales de los 50 y 60, varios intentos simbólicos en los 70, sistemas basados en el conocimiento en los 80, redes bayesianas en los 90, vectores de referencia en cero y redes neuronales nuevamente en la década de 2010.

La década de 2020 no será diferente, dice Domingos. Esto significa que la era del aprendizaje profundo podría terminar pronto. Pero lo que sucederá a continuación, una vieja técnica con una nueva gloria o un paradigma completamente nuevo, este es el tema de una feroz controversia en la comunidad.

Ilya Khel

Recomendado: