Para 2040, La Inteligencia Artificial Puede Revolucionar Los Principios De Seguridad Nuclear - Vista Alternativa

Para 2040, La Inteligencia Artificial Puede Revolucionar Los Principios De Seguridad Nuclear - Vista Alternativa
Para 2040, La Inteligencia Artificial Puede Revolucionar Los Principios De Seguridad Nuclear - Vista Alternativa

Vídeo: Para 2040, La Inteligencia Artificial Puede Revolucionar Los Principios De Seguridad Nuclear - Vista Alternativa

Vídeo: Para 2040, La Inteligencia Artificial Puede Revolucionar Los Principios De Seguridad Nuclear - Vista Alternativa
Vídeo: ¿puede la IA(inteligencia artificial) ayudar a mejorar la seguridad publica? 2024, Mayo
Anonim

Un estudio publicado recientemente por RAND Corporation concluyó que para 2040, la inteligencia artificial (IA) podría cambiar radicalmente el concepto de disuasión nuclear.

Una máquina apocalíptica impulsada por la IA parece poco probable, pero los riesgos reales de la IA para la seguridad nuclear radican en la capacidad de la IA para inducir a las personas a tomar decisiones injustificadas y potencialmente apocalípticas.

Durante la Guerra Fría, el concepto de destrucción mutua asegurada mantuvo una paz inestable entre las superpotencias, argumentando que cualquier ataque resultaría en represalias devastadoras. Como resultado, el concepto de HLG aseguró la estabilidad estratégica, actuando con seriedad en ambos lados en su preparación para acciones que realmente podrían convertirse en una guerra atómica.

La publicación de RAND dice que en las próximas décadas, la IA es bastante capaz de destruir el concepto de destrucción mutua asegurada y así socavar la estabilidad estratégica de nuestro mundo. Los sensores más sofisticados hacen probable que las "armas de represalia", por ejemplo, submarinos nucleares y misiles móviles, puedan identificarse y destruirse.

norte

Las naciones pueden verse tentadas a buscar activos de primer ataque como si fuera una ventaja sobre sus rivales, incluso si no tienen la intención de atacar primero. Esto socava la estabilidad en el sentido de que incluso si el lado capaz de atacar primero no va a aprovechar esta oportunidad, su oponente no puede estar seguro de ello.

"El vínculo entre la guerra nuclear y la inteligencia artificial no es nuevo, de hecho, las historias están entrelazadas", dice Edward Geist, coautor del artículo y en RAND. "Inicialmente, gran parte de la investigación de inteligencia artificial se llevó a cabo con el apoyo de los militares en la búsqueda de sus objetivos".

Como ejemplo, citó un "experimento de supervivencia planificada adaptativa" realizado en la década de 1980, cuyo objetivo era utilizar la inteligencia artificial para combinar inteligencia con objetivos para armas nucleares.

En caso de incertidumbre, la IA podría mejorar la estabilidad de la situación estratégica mejorando la precisión de la inteligencia recopilada y su análisis.

Video promocional:

Los investigadores creen que en el proceso de desarrollo, la IA será menos propensa a cometer errores en comparación con los humanos, lo que significa que será un factor de estabilidad a largo plazo.

Vadim Tarabarko

Recomendado: