Pensando Como Una Persona: ¿qué Sucederá Si Dota A La Máquina De La Teoría De La Conciencia? Vista Alternativa

Tabla de contenido:

Pensando Como Una Persona: ¿qué Sucederá Si Dota A La Máquina De La Teoría De La Conciencia? Vista Alternativa
Pensando Como Una Persona: ¿qué Sucederá Si Dota A La Máquina De La Teoría De La Conciencia? Vista Alternativa

Vídeo: Pensando Como Una Persona: ¿qué Sucederá Si Dota A La Máquina De La Teoría De La Conciencia? Vista Alternativa

Vídeo: Pensando Como Una Persona: ¿qué Sucederá Si Dota A La Máquina De La Teoría De La Conciencia? Vista Alternativa
Vídeo: Цензура в Дота 2 ?! Как убрать цензуру в доте ? Diretide 2020 2024, Julio
Anonim

El mes pasado, un equipo de jugadores de IA autodidactas sufrió una espectacular derrota contra jugadores profesionales de deportes electrónicos. El show match, que tuvo lugar como parte del Dota 2 The International World Championship, mostró que el pensamiento estratégico del equipo todavía permite que una persona prevalezca sobre un automóvil.

Las IA involucradas fueron varios algoritmos desarrollados por OpenAI, de los cuales Elon Musk es uno de los fundadores. Un colectivo de jugadores digitales, llamado OpenAI Five, aprendió a jugar Dota 2 por su cuenta, a través de prueba y error, compitiendo entre sí.

A diferencia del mismo juego de ajedrez o de lógica de tablero, Go, el popular y de rápido crecimiento multijugador Dota 2 se considera un campo mucho más serio para probar la inteligencia artificial para determinar la fuerza. La dificultad general del juego es solo un factor. No es suficiente hacer clic muy rápido con el mouse y enviar comandos al personaje que controlas. Para ganar, es necesario tener intuición y comprensión de qué esperar del oponente en el próximo momento en el tiempo, así como actuar adecuadamente de acuerdo con este conjunto de conocimientos para unirse con esfuerzos comunes hacia un objetivo común: la victoria. La computadora no tiene este conjunto de capacidades.

Hasta la fecha, incluso el algoritmo informático de aprendizaje profundo más destacado no tiene el pensamiento estratégico necesario para comprender los objetivos de las tareas de su oponente, ya sea otra IA o un humano.

Según Wang, para que la IA tenga éxito, debe tener una habilidad de comunicación profunda que se origine en la característica cognitiva más importante de una persona: la presencia de inteligencia.

Modelo de estado mental como simulación

Video promocional:

A la edad de cuatro años, los niños generalmente comienzan a comprender un rasgo social fundamental: sus mentes son diferentes a las de los demás. Empiezan a comprender que todos tienen aquello en lo que creen, sus deseos, emociones e intenciones. Y, lo más importante, imaginándose a sí mismos en el lugar de los demás, pueden comenzar a predecir el comportamiento futuro de estas personas y explicarlo. De alguna manera, sus cerebros comienzan a crear múltiples simulaciones de sí mismos dentro de sí mismos, sustituyéndose en el lugar de otras personas y ubicándose dentro de un entorno diferente.

El modelo del estado mental es importante para entenderse a uno mismo como persona y también juega un papel importante en la interacción social. Comprender a los demás es la clave para una comunicación eficaz y lograr objetivos comunes. Sin embargo, esta capacidad también puede ser la fuerza impulsora detrás de las creencias falsas, ideas que nos alejan de la verdad objetiva. Tan pronto como la capacidad de utilizar un modelo de estado mental se ve afectada, por ejemplo, esto sucede en el autismo, las habilidades "humanas" naturales, como la capacidad de explicar e imaginar, también se deterioran.

Según el Dr. Alan Winfield, profesor de robótica en la Universidad del Oeste de Inglaterra, el modelo del estado mental o "teoría de la mente" es una característica clave que algún día permitirá que la IA "comprenda" a las personas, las cosas y otros robots.

En lugar de métodos de aprendizaje automático, en los que múltiples capas de redes neuronales extraen piezas individuales de información y "estudian" enormes bases de datos, Winston sugiere adoptar un enfoque diferente. En lugar de depender del aprendizaje, Winston sugiere preprogramar la IA con un modelo interno de sí mismo y del entorno que responderá a preguntas simples de "¿y si?".

Por ejemplo, imagine que dos robots se mueven a lo largo de un pasillo estrecho, su IA puede simular los resultados de otras acciones que evitarán su colisión: girar a la izquierda, a la derecha o seguir recto. Este modelo interno actuará esencialmente como un "mecanismo de consecuencia", actuando como una especie de "sentido común" que ayudará a dirigir la IA a las siguientes acciones correctas al predecir el desarrollo futuro de la situación.

En un estudio publicado a principios de este año, Winston demostró un robot prototipo capaz de lograr tales resultados. Anticipándose al comportamiento de los demás, el robot pasó con éxito por el pasillo sin colisiones. De hecho, esto no es sorprendente, señala el autor, pero el robot "atento", utilizando un enfoque simulado para resolver el problema, tardó un 50 por ciento más en completar el corredor. Sin embargo, Winston demostró que su método de simulación interna funciona: "Este es un punto de partida muy poderoso e interesante en el desarrollo de la teoría de la inteligencia artificial", concluyó el científico.

norte

Winston espera que eventualmente la IA adquiera la capacidad de describir y reproducir mentalmente situaciones. Un modelo interno de sí mismo y de otros permitirá a dicha IA simular varios escenarios y, lo que es más importante, definir metas y objetivos específicos para cada uno de ellos.

Esto es significativamente diferente de los algoritmos de aprendizaje profundo, que, en principio, no son capaces de explicar por qué llegaron a tal o cual conclusión al resolver un problema. El modelo de caja negra del aprendizaje profundo es en realidad el problema real de confiar en tales sistemas. Este problema puede volverse especialmente agudo, por ejemplo, al desarrollar robots de enfermería para hospitales o para personas mayores.

Una IA armada con un modelo de estado mental podría ponerse en la piel de sus maestros y comprender correctamente lo que se quiere de ella. Entonces podría identificar las soluciones adecuadas y, habiendo explicado estas soluciones a la persona, ya estaría cumpliendo con la tarea que se le asigna. Cuanto menos incertidumbre en las decisiones, más confianza habría en tales robots.

Modelo de estado mental en una red neuronal

DeepMind adopta un enfoque diferente. En lugar de preprogramar un algoritmo para el mecanismo de consecuencias, han desarrollado varias redes neuronales que demuestran una similitud con un modelo de comportamiento psicológico colectivo.

El algoritmo de IA "ToMnet" puede aprender acciones observando otras redes de neutrones. La propia ToMNet es un colectivo de tres redes neuronales: la primera se basa en las peculiaridades de elegir otras IA según sus últimas acciones. El segundo forma un concepto general del estado de ánimo actual: sus creencias e intenciones en un momento determinado. El resultado colectivo del trabajo de dos redes neuronales es recibido por la tercera, que predice nuevas acciones de la IA en función de la situación. Al igual que con el aprendizaje profundo, ToMnet se vuelve más eficaz a medida que gana experiencia siguiendo a otros.

En un experimento, ToMnet "observó" a tres agentes de IA maniobrar en una sala digital, recogiendo cajas de colores. Cada una de estas IA tenía su propia peculiaridad: una era "ciega", no podía determinar la forma y ubicación en la habitación. El otro era un "esclerótico": no recordaba sus últimos pasos. El tercero podía ver y recordar.

Después del entrenamiento, ToMnet comenzó a predecir las preferencias de cada IA observando sus acciones. Por ejemplo, el "ciego" se movía constantemente solo a lo largo de las paredes. ToMnet recordó esto. El algoritmo también pudo predecir correctamente el comportamiento futuro de la IA y, lo que es más importante, comprender cuándo la IA encontró una representación falsa del entorno.

En una prueba, un equipo de científicos programó una IA para "miopía" y cambió el diseño de una habitación. Los agentes con visión normal se adaptaron rápidamente al nuevo diseño, pero el hombre miope continuó siguiendo sus rutas originales, creyendo falsamente que todavía estaba en el ambiente anterior. ToMnet notó rápidamente esta característica y predijo con precisión el comportamiento del agente, poniéndose en su lugar.

Según la Dra. Alison Gopnik, psicóloga del desarrollo de la Universidad de California, Berkeley, que no participó en estos estudios, pero que estaba familiarizada con los hallazgos, estos resultados muestran que las redes neuronales tienen una capacidad asombrosa para aprender diferentes habilidades por sí mismas, a través de la observación de los demás. Al mismo tiempo, según el experto, todavía es muy pronto para decir que estas IA han desarrollado un modelo artificial del estado mental.

Según el Dr. Josh Tenebaum del Instituto de Tecnología de Massachusetts, que tampoco participó en el estudio, la "comprensión" de ToMnet está fuertemente ligada al contexto del entorno de aprendizaje: la misma sala y agentes de inteligencia artificial específicos cuya tarea era recoger cajas. Esta restricción dentro de un cierto marco hace que ToMnet sea menos eficaz para predecir el comportamiento en entornos radicalmente nuevos, a diferencia de los mismos niños que pueden adaptarse a nuevas situaciones. El algoritmo, según el científico, no podrá modelar las acciones de una IA o persona completamente diferente.

En cualquier caso, el trabajo de Winston y DeepMind demuestra que las computadoras están comenzando a mostrar rudimentos de "comprensión" entre sí, incluso si esta comprensión es todavía rudimentaria. Y a medida que continúen mejorando esta habilidad, entendiéndose cada vez mejor, llegará el momento en que las máquinas puedan comprender la complejidad y la complejidad de nuestra propia conciencia.

Nikolay Khizhnyak

Recomendado: