¿Robots Asesinos? Detente, Incluso Los Buenos Robots Son Terriblemente Impredecibles - Vista Alternativa

Tabla de contenido:

¿Robots Asesinos? Detente, Incluso Los Buenos Robots Son Terriblemente Impredecibles - Vista Alternativa
¿Robots Asesinos? Detente, Incluso Los Buenos Robots Son Terriblemente Impredecibles - Vista Alternativa

Vídeo: ¿Robots Asesinos? Detente, Incluso Los Buenos Robots Son Terriblemente Impredecibles - Vista Alternativa

Vídeo: ¿Robots Asesinos? Detente, Incluso Los Buenos Robots Son Terriblemente Impredecibles - Vista Alternativa
Vídeo: Новый робот и ТОП-10 лучших роботов в War Robots 2024, Octubre
Anonim

Los líderes de más de un centenar de las principales empresas de inteligencia artificial del mundo están muy preocupados por el desarrollo de "robots asesinos". En una carta abierta a la ONU, estos líderes empresariales, incluido Elon Musk de Tesla y los fundadores de DeepMind de Google, advirtieron que el uso de tecnología de armas autónomas podría ser adoptado por terroristas y déspotas, o ser pirateado hasta cierto punto.

Pero la amenaza real es mucho más seria, y no es solo la mala conducta humana, sino también las fechorías de las máquinas. El examen de sistemas complejos muestra que pueden comportarse de manera mucho más impredecible de lo que se puede inferir de la suma de acciones individuales. Por un lado, esto significa que la sociedad humana puede comportarse de manera muy diferente de lo que cabría esperar al estudiar el comportamiento de los individuos. Por otro lado, lo mismo se aplica a la tecnología. Incluso los ecosistemas de simples programas de inteligencia artificial, a los que llamamos bots tontos y buenos, pueden sorprendernos. Incluso los bots individuales pueden comportarse horriblemente.

Los elementos individuales que componen los sistemas complejos, como los mercados económicos o el clima global, tienden a no interactuar de una manera lineal simple. Esto hace que estos sistemas sean muy difíciles de modelar y comprender. Por ejemplo, incluso después de años de investigación climática, es imposible predecir el comportamiento a largo plazo del clima. Estos sistemas son tan sensibles a los cambios más pequeños como reaccionan explosivamente. Es muy difícil conocer el estado exacto de tal sistema en un momento dado. Todo esto hace que estos sistemas sean internamente impredecibles.

Todos estos principios se aplican a grandes grupos de personas que actúan a su manera, ya sean sociedades humanas o grupos de robots de IA. Los científicos estudiaron recientemente un tipo de sistema complejo que utilizaba buenos bots para editar automáticamente los artículos de Wikipedia. Estos diversos bots están diseñados, escritos y utilizados por editores de Wikipedia de confianza, y su software subyacente es de código abierto y está disponible para todos. Individualmente, tienen el objetivo común de mejorar la enciclopedia. Sin embargo, su comportamiento colectivo resultó ser sorprendentemente ineficaz.

norte

Las reglas y convenciones bien establecidas son la base del funcionamiento de estos bots en Wikipedia, pero dado que el sitio web no tiene un sistema de control central, no existe una coordinación efectiva entre las personas que ejecutan los diferentes bots. Los resultados revelaron un par de bots que cancelaron las ediciones del otro durante varios años y nadie se dio cuenta. Y, por supuesto, dado que estos bots no aprenden nada, tampoco se dieron cuenta.

Estos bots están diseñados para acelerar el proceso de edición. Pero las pequeñas diferencias en el diseño de los bots, o entre las personas que los usan, podrían conducir a un desperdicio masivo de recursos en una "guerra de edición" en curso que los editores podrían resolver mucho más rápido.

Los investigadores también encontraron que los bots se comportaban de manera diferente en diferentes versiones lingüísticas de Wikipedia. Las reglas, al parecer, son casi las mismas, los objetivos son idénticos, las tecnologías son similares. Pero en la Wikipedia en alemán, la cooperación de bots era mucho más eficiente y productiva que, por ejemplo, en portugués. Esto solo puede explicarse por las diferencias entre los editores humanos que ejecutaron estos bots en diferentes entornos.

norte

Video promocional:

Confusión exponencial

Los bots de Wikipedia no tienen una amplia autonomía y el sistema ya no funciona de acuerdo con los objetivos de los bots individuales. Pero la Fundación Wikimedia planea usar IA que le dará más autonomía a estos bots. Y es probable que esto conduzca a un comportamiento aún más impredecible.

Un buen ejemplo de lo que puede suceder lo muestran los bots diseñados para hablar con las personas cuando se ven obligados a comunicarse entre sí. Ya no nos sorprenden las respuestas de asistentes personales como Siri. Pero haz que se comuniquen entre sí y rápidamente comenzarán a comportarse de maneras inesperadas, a discutir e incluso a insultarse entre sí.

Cuanto más grande se vuelve el sistema y más autónomo se vuelve cada bot, más complejo e impredecible será el comportamiento futuro de ese sistema. Wikipedia es un ejemplo de una gran cantidad de bots relativamente simples en funcionamiento. El ejemplo del chatbot es un ejemplo de una pequeña cantidad de bots relativamente complejos e inventivos; en ambos casos, surgen conflictos imprevistos. La complejidad, y por lo tanto la imprevisibilidad, crece exponencialmente a medida que se agrega personalidad al sistema. Por tanto, cuando en el futuro aparezcan sistemas con una gran cantidad de robots muy complejos, su imprevisibilidad irá más allá de nuestra imaginación.

Locura ardiente

Los automóviles autónomos, por ejemplo, prometen hacer un gran avance en eficiencia y seguridad vial. Pero aún no sabemos qué pasará cuando tengamos un gran sistema salvaje de vehículos totalmente autónomos. Pueden comportarse de manera diferente incluso dentro de una pequeña flota de vehículos individuales en un entorno controlado. Y un comportamiento aún más impredecible puede manifestarse cuando los autos autónomos, "entrenados" por diferentes personas en diferentes lugares, comienzan a interactuar entre sí.

Las personas pueden adaptarse a nuevas reglas y convenciones con relativa rapidez, pero tienen dificultades para cambiar de sistema. Los agentes artificiales pueden ser aún más difíciles. Por ejemplo, si un automóvil "entrenado en Alemania" viaja a Italia, por ejemplo, no sabemos cómo dominará las convenciones culturales no escritas que siguen muchos otros automóviles "entrenados en Italia". Algo mundano como cruzar una intersección puede convertirse en un riesgo mortal porque simplemente no sabemos si los autos interactuarán como se espera o si se comportarán de manera impredecible.

Ahora piense en los robots asesinos que acosan a Musk y sus colegas. Un robot asesino puede ser muy peligroso en las manos equivocadas. ¿Qué pasa con el sistema de robots asesinos impredecibles? Piensa por ti mismo.

Ilya Khel

Recomendado: