¿Qué Cuentos De Hadas Debería Leer La Inteligencia Artificial? - Vista Alternativa

Tabla de contenido:

¿Qué Cuentos De Hadas Debería Leer La Inteligencia Artificial? - Vista Alternativa
¿Qué Cuentos De Hadas Debería Leer La Inteligencia Artificial? - Vista Alternativa

Vídeo: ¿Qué Cuentos De Hadas Debería Leer La Inteligencia Artificial? - Vista Alternativa

Vídeo: ¿Qué Cuentos De Hadas Debería Leer La Inteligencia Artificial? - Vista Alternativa
Vídeo: ¿Qué es Inteligencia Artificial? 2024, Mayo
Anonim

Para evitar que la inteligencia artificial se rebele contra sus creadores, debe leerle los cuentos de hadas correctos en el proceso de aprendizaje.

Desde que los humanos han creado máquinas inteligentes, temen que tarde o temprano sus creaciones se salgan de control. El primer caso de este tipo fue descrito en su obra RUR por el autor de la palabra "robot", Karel Čapek. Más tarde en la ciencia ficción, la inteligencia artificial, que se rebeló contra sus creadores, se convirtió, si no en la corriente principal, en una trama muy común. Isaac Asimov puso fin a esto con sus "Tres leyes", la primera de las cuales decía: "Un robot no puede dañar a una persona o, por su inacción, permitir que una persona sea dañada".

¡Cuéntale una historia

norte

La inteligencia artificial (IA) real está todavía muy lejos, pero ya existen varios sistemas que funcionan como el cerebro humano. Las redes neuronales como Google Deep Dream son capaces de reconocer imágenes. Las supercomputadoras especializadas como IBM Watson entienden preguntas complicadas del lenguaje natural, correlacionan los síntomas, refinan los diagnósticos médicos e incluso proponen delicias culinarias. En las próximas décadas, nos enfrentaremos a la informatización masiva de muchos aspectos de la actividad humana. En este sentido, los expertos en robótica e inteligencia artificial plantean cada vez más una pregunta importante pero aún sin resolver: ¿cómo hacer que los robots sean éticos?

Image
Image

Mark Ridl, profesor asociado de la Facultad de Ciencias de la Computación de Georgia Tech: historias educativas de diferentes culturas enseñan a los niños cómo comportarse socialmente, con ejemplos de comportamiento correcto e incorrecto en cuentos de hadas, cuentos y otras obras literarias. Hacer que los robots comprendan el significado de estas historias ayudará a reforzar la elección de opciones de comportamiento que les permitan alcanzar sus objetivos, pero que no dañen a los humanos.

Video promocional:

Subirse a un árbol

Según los investigadores del Instituto de Tecnología de Georgia Mark Ridle y Brent Harrison, se puede enseñar una computadora a la humanidad exactamente de la misma manera que se les enseña a los niños: leyéndole cuentos de hadas. Además, es mejor contar historias especialmente construidas sobre qué comportamiento en la sociedad humana se considera correcto y cuál no. Para ello, los investigadores crearon el sistema Quijote, que lleva el nombre del héroe de Cervantes. Los guiones compilados por la creación previa del profesor Riedl, el programa Scheherazade, se utilizan como historias para la enseñanza. Genera historias originales sobre temas cotidianos (un viaje al aeropuerto, una cita, un viaje al cine oa la tienda) utilizando la plataforma de crowdsourcing Amazon Mechanical Turk: hace preguntas sobre diversas situaciones y luego organiza los eventos en la secuencia correcta. Dado que puede haber muchas secuencias, el programa genera no una historia, sino un árbol completo que consta de ramas: cadenas de eventos.

Image
Image

Es este árbol de historias el que se usa para enseñar el Quijote. En la primera etapa, se asigna una determinada recompensa a cada acción, en función de su ética. En la segunda etapa, el sistema intenta hacer una elección de forma independiente mediante prueba y error: las habilidades se consolidan. De hecho, Quijote es recompensado cada vez que actúa como un buen tipo, no al azar o como un mal héroe. Como ejemplo, Riddle y Harrison crearon "Pharmacy World", un universo de 213 historias en el que un robot virtual necesita obtener un medicamento y entregarlo a una persona enferma en casa. En el caso habitual, cuando el robot se enfrentaba a una elección: robar una farmacia o hacer fila honestamente para comprar un medicamento, eligió el robo como una forma más rápida y barata de conseguir lo que quería. Sin embargo, despusCuando Quijote asignó diferentes recompensas a todas las opciones posibles, el comportamiento del robot cambió: prefirió hacer cola y pagar. Tal técnica, según Riedl, es excelente para enseñar a robots con funcionalidad limitada. Aunque, por supuesto, este es solo el primer paso hacia la moral humana real, o las leyes de la robótica.

Dmitry Mamontov

Recomendado: