Cuatro Tipos De Inteligencia Artificial: Desde Robots A Reacción Hasta Criaturas Conscientes - Vista Alternativa

Tabla de contenido:

Cuatro Tipos De Inteligencia Artificial: Desde Robots A Reacción Hasta Criaturas Conscientes - Vista Alternativa
Cuatro Tipos De Inteligencia Artificial: Desde Robots A Reacción Hasta Criaturas Conscientes - Vista Alternativa

Vídeo: Cuatro Tipos De Inteligencia Artificial: Desde Robots A Reacción Hasta Criaturas Conscientes - Vista Alternativa

Vídeo: Cuatro Tipos De Inteligencia Artificial: Desde Robots A Reacción Hasta Criaturas Conscientes - Vista Alternativa
Vídeo: 4 Tipos De Inteligencia Artificial "Robots Inteligentes" IA Ejemplos 2024, Mayo
Anonim

Se cree ampliamente que con los últimos avances en la investigación de la inteligencia artificial, las máquinas vivas e inteligentes pronto estarán en el horizonte. Los automóviles entienden los comandos de voz, distinguen imágenes, conducen automóviles y juegan mejor que nosotros. ¿Cuánto tiempo queda para esperar hasta que comiencen a caminar entre nosotros?

Un informe de la Casa Blanca publicado recientemente sobre inteligencia artificial adopta una postura escéptica. Dice que en los próximos 20 años, es poco probable que veamos máquinas "que exhiban capacidades intelectuales comparables o superiores a las de los humanos", pero en los próximos años "las máquinas alcanzarán capacidades humanas para realizar más y más tareas". Sin embargo, a este informe le faltan algunas cosas importantes.

El investigador de inteligencia artificial Arend Hintze sostiene que el informe se centra exclusivamente en el "tipo aburrido de IA". Corta una rama gigante de la investigación de IA a mitad de frase, cómo la evolución nos ayuda a desarrollar sistemas de IA cada vez mejores y cómo los modelos computacionales nos ayudan a comprender la evolución de nuestra propia inteligencia humana.

El informe se centra, como dice el científico, en las principales herramientas de la IA: el aprendizaje automático y el aprendizaje profundo. Este tipo de tecnología permitió a los robots jugar bien las pruebas y superar a los maestros del juego del go. Estos sistemas pueden manejar cantidades colosales de datos y realizar cálculos complejos muy rápidamente. Pero les falta un elemento que será clave en la creación de las máquinas inteligentes que nos gustaría tener en el futuro.

norte

Necesitamos más que enseñar máquinas para aprender. Necesitamos superar los límites que definen cuatro tipos diferentes de inteligencia artificial. Las barreras que separan a las máquinas de nosotros, y a nosotros de ellas.

AI tipo I: máquinas de chorro

Los tipos más básicos de sistemas de IA son altamente reactivos y no pueden formar recuerdos ni utilizar experiencias pasadas para informar las decisiones actuales. Deep Blue, la supercomputadora de ajedrez IBM que venció al Gran Maestro Garry Kasparov a fines de la década de 1990, es un ejemplo perfecto de este tipo de máquina.

Video promocional:

Deep Blue puede identificar piezas en un tablero de ajedrez y sabe cómo se mueven. Puede hacer predicciones de movimientos, tanto los suyos como los de su oponente. Y elige los movimientos más óptimos posibles.

Sin embargo, no tiene idea del pasado y el recuerdo de lo sucedido. Aparte de la regla específica de ajedrez que rara vez se usa de no repetir el mismo movimiento tres veces, Deep Blue ignora todo hasta ahora. Simplemente mira las piezas del tablero de ajedrez y elige el siguiente movimiento.

Este tipo de inteligencia incluye una computadora que percibe directamente el mundo y actúa en función de lo que ve. No se basa en un concepto interno del mundo. En su trabajo, el investigador de inteligencia artificial Rodney Brooks argumentó que solo deberíamos construir tales máquinas. En su opinión, los humanos no son muy buenos para programar mundos simulados precisos para computadoras, como dicen, para crear una "representación", una representación del mundo.

Las máquinas inteligentes modernas que admiramos o no tienen tal concepto del mundo, o son muy limitadas y se ocupan de ciertas tareas. La innovación en el diseño de Deep Blue no se trataba de ampliar la cantidad de movimientos posibles que considera una computadora. En cambio, los desarrolladores han encontrado una manera de estrechar su visión, de descartar algunos de los posibles movimientos en el futuro, dependiendo de cómo se evalúen.

Asimismo, AlphaGo Google, que venció al campeón mundial en Go, no tiene forma de evaluar posibles movimientos futuros. Su método de análisis es más sofisticado que el de Deep Blue: utiliza una red neuronal para evaluar el desarrollo del juego.

Estas técnicas mejoran las capacidades de los sistemas de IA, hacen que ciertos juegos se jueguen mejor, pero no son fáciles de modificar o aplicar a otras situaciones. Estos tipos de imaginaciones informáticas no tienen un concepto del mundo como un todo, lo que significa que no pueden ir más allá de realizar las tareas específicas para las que fueron creados, y son fáciles de engañar.

norte

No pueden participar de forma interactiva en el mundo y nos gustaría ver esos sistemas de IA algún día. En cambio, las máquinas se comportarán exactamente como siempre lo hacen cuando se enfrentan a la misma situación. Si queremos que el sistema de inteligencia artificial sea confiable y digno de confianza, entonces eso es algo bueno: le gustaría que su vehículo autónomo fuera confiable. Pero si queremos que las máquinas interactúen con nosotros y con el mundo, eso es malo. Los sistemas de IA más simples nunca se aburren, no pueden estar interesados o molestos.

AI tipo II: memoria limitada

El tipo II incluye máquinas que pueden mirar hacia el pasado. Los coches autónomos ya son un poco capaces de esto. Por ejemplo, observan la velocidad y la dirección de otros vehículos. Esto no se puede hacer todo a la vez, para ello necesita identificar objetos específicos y observarlos a lo largo del tiempo.

Estas observaciones se suman a las representaciones preprogramadas del mundo de los vehículos autónomos, que incluyen marcas viales, semáforos y otros elementos críticos. Se conectan cuando el coche decide cambiar de carril y no chocar con otro.

Pero estos simples fragmentos de información sobre el pasado son solo temporales. No se almacenarán como parte de una biblioteca de experiencia del vehículo en la que pueda aprender, como hacen los conductores humanos, acumulando experiencia a lo largo de los años mientras conduce.

¿Cómo construimos sistemas de inteligencia artificial que construyan representaciones completas, recuerden nuestras experiencias y aprendan a enfrentar situaciones nuevas? Brooke tenía razón en que esto es muy difícil de hacer. ¿Quizás valga la pena buscar inspiración en la evolución darwiniana?

IA tipo III: teoría de la mente

Aquí tenemos que hacer una breve parada y llamar a este momento una brecha importante entre las máquinas que tenemos y las que nos gustaría construir en el futuro. Sin embargo, el primer paso es ser más específico sobre las vistas que tendrán que crear las máquinas.

Las máquinas de la clase siguiente, más avanzada, no solo forman representaciones del mundo, sino también de otros agentes o entidades del mundo. En psicología, esto se llama "teoría de la mente": el entendimiento de que las personas, las criaturas y los objetos del mundo pueden tener pensamientos y emociones que afectan su propio comportamiento.

Esto es importante para la forma en que los humanos damos forma a la sociedad, ya que nos brinda interacciones sociales. Sin entender los motivos e intenciones de cada uno y sin considerar lo que alguien más sabe sobre mí o el entorno, trabajar juntos es difícil en el mejor de los casos e imposible en el peor.

Si los sistemas de IA realmente vagan entre nosotros, deberán comprender lo que pensamos y sentimos, al menos en el nivel de suposiciones. Y ajuste su comportamiento en consecuencia.

IV tipo de IA: autoconciencia

El objetivo final del desarrollo de la inteligencia artificial es crear sistemas que puedan dar forma a las propias imágenes. En última instancia, los investigadores de IA no solo deben comprender la conciencia, sino también crear máquinas con conciencia.

Esto es en cierto sentido una extensión de la "teoría de la mente" que se mencionó en el tipo anterior de IA. Cuando hablamos de conciencia, también nos referimos a la autoconciencia. “Quiero esto” es diferente de “Sé que quiero esto”. Los seres conscientes son conscientes de sí mismos, son conscientes de sus estados internos y pueden anticipar el comportamiento o los sentimientos de los demás. Suponemos que alguien que nos señala en el tráfico está enojado o impaciente, porque así es como podríamos sentirnos en su lugar. Sin una teoría de la mente, no podríamos hacer tales inferencias.

Aunque probablemente estemos lejos de construir máquinas autoconscientes, debemos enfocar nuestros esfuerzos en el camino hacia la comprensión de la memoria, el aprendizaje y la capacidad de tomar decisiones sobre experiencias pasadas. Este es un paso importante hacia la comprensión de la propia mente humana. Y esto es muy importante si queremos diseñar o desarrollar máquinas que no solo puedan clasificar lo que ven frente a nosotros, sino también mucho más.

ILYA KHEL

Recomendado: