Los Robots Pueden Superarnos En Batallas Virtuales - Vista Alternativa

Tabla de contenido:

Los Robots Pueden Superarnos En Batallas Virtuales - Vista Alternativa
Los Robots Pueden Superarnos En Batallas Virtuales - Vista Alternativa

Vídeo: Los Robots Pueden Superarnos En Batallas Virtuales - Vista Alternativa

Vídeo: Los Robots Pueden Superarnos En Batallas Virtuales - Vista Alternativa
Vídeo: 10 Robots Más Avanzados Del Mundo 2019 2024, Mayo
Anonim

Al autor le preocupa el creciente papel de los robots en la guerra. Desde 1991, desde la Guerra del Golfo, han estado ayudando a los generales. Y ahora se ha creado un "robot asesino", una máquina que toma de forma independiente la decisión de destruir enemigos, si esto es coherente con la política general del "centro de control".

El desarrollador de inteligencia artificial DeepMind ha anunciado una novedad: un bot llamado AlphaStar, que jugará la popular estrategia en línea Starcraft-2 al nivel de "gran maestro".

Esta no es la primera vez que un bot derrota a la gente en un juego de guerra estratégico. En 1981, un programa llamado Eurisko, desarrollado por uno de los pioneros de la inteligencia artificial, Doug Lenat, ganó el US Traveller Championship, un juego de guerra estratégico muy complejo en el que el jugador debe completar su flota y luchar contra la flota enemiga. Eurisko finalmente recibió el título de Almirante Viajero Honorario. En 1982, las reglas del torneo se cambiaron en un intento de frustrar a la computadora. Pero Eurisko ganó a todos durante dos años seguidos. Después de que los patrocinadores prometieran cancelar el torneo si la computadora ganaba nuevamente, Lenat se retiró.

DeepMind PR quiere que crea que StarCraft "surgió por consenso como el próximo gran desafío (en juegos de PC)" y "ha sido un desafío para los desarrolladores de IA durante más de 15 años".

norte

En el campeonato de Starcraft más reciente, solo se enviaron 4 solicitudes de laboratorios de investigación académica o industrial. Los otros nueve bots fueron escritos por individuos y no como parte de la corriente principal de investigación sobre inteligencia artificial (IA).

De hecho, el número de autores (42) del artículo de DeepMind publicado el 31 de octubre en Nature supera significativamente al número de personas que trabajan en bots de Starcraft en el resto del mundo. No quiero eclipsar el éxito de esta colaboración de ingeniería, pero si invierte suficientes recursos para resolver el problema, el éxito está garantizado.

A diferencia de las recientes victorias en el ajedrez por computadora, AlphaStar no ha sido entrenado jugando contra sí mismo. Aprendió esto imitando los mejores episodios de casi un millón de juegos jugados por los mejores jugadores humanos. Antes de eso, AlphaStar sufrió una derrota innegable en 19 de las 20 peleas, jugando con personas reales en el servidor de StarCraft. AlphaStar jugaba de forma anónima para evitar que las personas explotaran las debilidades que podrían haberse encontrado en juegos anteriores.

En diciembre pasado, AlphaStar derrotó a uno de los mejores jugadores profesionales del mundo: Grzegorz MaNa Komincz. Pero era una versión de AlphaStar con reflejos que eran significativamente más rápidos que los humanos, así como con una visión ilimitada del campo de juego (a diferencia de los jugadores humanos que solo ven una parte a la vez). Difícilmente se puede llamar un campo de juego nivelado.

Video promocional:

Sin embargo, StarCraft tiene algunas características que hacen de AlphaStar un desarrollo impresionante, si no un avance real. A diferencia del ajedrez o del juego oriental de go (un juego de estrategia que usa un tablero de 361 campos - ed.), Los jugadores de StarCraft tienen una comprensión imperfecta del estado del juego, pero la cantidad de acciones posibles es mucho mayor. Y el combate de StarCraft ocurre en tiempo real, pero requiere una planificación a largo plazo.

norte

Guerras de robots

Surge la pregunta: ¿veremos en el futuro cómo los robots no solo participan en las guerras, sino que también las planifican? De hecho, ambos ya están sucediendo.

A pesar de muchas advertencias de investigadores de inteligencia artificial (como yo), fundadores de robótica, premios Nobel y líderes eclesiásticos, ya se ha creado un arma totalmente autónoma conocida como "robot asesino" y pronto se utilizará.

En 2020, Turquía desplegará drones kamikaze en la frontera con Siria. Estos drones utilizarán la visión por computadora para identificar, rastrear y matar personas sin intervención humana.

Este es un desarrollo terrible. Las computadoras no tienen la capacidad moral para tomar una decisión moralmente equilibrada sobre quién vivirá y quién morirá. Carecen de empatía o compasión. Los robots asesinos cambiarán la naturaleza misma del conflicto para peor.

¿Qué pasa con los "generales robóticos"? Las computadoras han ayudado a los generales a planificar la guerra durante décadas. A principios de la década de 1990, durante la Operación Tormenta del Desierto durante la Guerra del Golfo, se utilizaron herramientas de inteligencia artificial (IA) para planificar una acumulación en el Medio Oriente antes del conflicto. Un general estadounidense me dijo poco después que la cantidad de dinero ahorrada era igual a la suma de todo lo que se había gastado antes en el desarrollo de IA.

Los generales también usan computadoras para desarrollar estrategias militares multivariadas que de repente pueden ser necesarias. Pero no dejamos todas las decisiones en el campo de batalla en manos de un solo soldado, por lo tanto, transferir toda la responsabilidad del cerebro del general al procesador de la computadora es ir demasiado lejos.

La máquina no se hace responsable de sus decisiones. Solo las personas son responsables. Y esta es la piedra angular del derecho internacional humanitario. Sin embargo, los generales dependerán cada vez más del soporte informático en sus decisiones para romper la niebla de la guerra y lidiar con la gran cantidad de información que proviene del frente.

Si esto da como resultado menos víctimas civiles, menos fuego amigo y un mayor respeto por el derecho internacional humanitario, deberíamos agradecer dicha asistencia informática. Pero la decisión final debe tomarla el hombre, no la máquina.

Aquí hay una última pregunta para reflexionar. Si las empresas de tecnología como Google realmente no quieren que temamos un levantamiento de máquinas, ¿por qué están construyendo bots para ganar guerras virtuales en lugar de enfocarse en algo más pacífico como los juegos electrónicos pacíficos? Con el debido respeto a los fanáticos de los deportes, tenemos que admitir que lo que está en juego en los juegos que no son de guerra es mucho menor.

Toby Walsh es profesor de inteligencia artificial en la Universidad de Nueva Gales del Sur y la comunidad de investigación Data61.

Recomendado: