La Inteligencia Artificial Como Terrorista: Nuevas Amenazas A La Seguridad - Vista Alternativa

Tabla de contenido:

La Inteligencia Artificial Como Terrorista: Nuevas Amenazas A La Seguridad - Vista Alternativa
La Inteligencia Artificial Como Terrorista: Nuevas Amenazas A La Seguridad - Vista Alternativa

Vídeo: La Inteligencia Artificial Como Terrorista: Nuevas Amenazas A La Seguridad - Vista Alternativa

Vídeo: La Inteligencia Artificial Como Terrorista: Nuevas Amenazas A La Seguridad - Vista Alternativa
Vídeo: El papel de Alemania en el mundo | DW Documental 2024, Octubre
Anonim

Los científicos rusos han examinado y clasificado las amenazas del uso de inteligencia artificial (IA) desde el punto de vista de la información internacional y la seguridad psicológica. Se prestó especial atención a contrarrestar el uso malicioso de la inteligencia artificial por parte de los terroristas. Los resultados de la investigación se publican en la revista Russia in Global Affairs.

Peligros del uso malicioso de la IA

El peligro potencial de la inteligencia artificial para la humanidad se ha convertido en repetidas ocasiones en el tema de las obras de arte y hoy es uno de los temas más discutidos del desarrollo científico y tecnológico. Aunque Strong AI, capaz de un pensamiento sistémico independiente y posiblemente con autoconciencia y voluntad, aún está lejos de ser creada, varias versiones avanzadas de Weak AI realizan tareas especializadas que parecían ciencia ficción hace 10 años. El uso de la IA con buenos fines (por ejemplo, en medicina) ya está aportando indudables beneficios. Sin embargo, en manos de organizaciones terroristas y otras organizaciones criminales, las tecnologías de inteligencia artificial cada vez más baratas y avanzadas pueden convertirse en un arma más terrible que la nuclear.

norte

Investigadores de diferentes países están estudiando activamente las amenazas que el uso malicioso de la IA representa para la sociedad en su conjunto y para ciertas esferas de la actividad humana, ya sea política, económica, asuntos militares, etc. Sin embargo, las amenazas directas a la información internacional y la seguridad psicológica aún no se han identificado como independientes. alcance de consideración. Mientras tanto, el uso de la inteligencia artificial para desestabilizar las relaciones internacionales a través de información de alta tecnología dirigida y el impacto psicológico en las personas es un gran peligro obvio.

Los autores del estudio propusieron una clasificación de las amenazas al uso malintencionado de la inteligencia artificial en función de una serie de criterios, entre ellos la cobertura territorial, la velocidad y la forma de propagación. La aplicación de la clasificación le ayudará a encontrar formas de contrarrestar y desarrollar herramientas de respuesta.

“La futura reducción del costo de las tecnologías de inteligencia artificial puede crear amenazas de ataques terroristas fundamentalmente nuevos. Es posible que se utilice un chatbot para crear un mensaje sobre un evento falso y convencer a las posibles víctimas de que lo visiten. Para contrarrestar, es aconsejable familiarizar a la sociedad con las nuevas amenazas, instruyendo a los ciudadanos a desconfiar de los contactos remotos con personas que no conocen personalmente. La salida podría ser la certificación de eventos públicos, confirmando la realidad de la información publicada sobre ellos. Por supuesto, la tarea de los especialistas técnicos en este caso será la protección de las bases de datos sobre eventos y el mecanismo de su certificación , dijo a RIA Novosti, profesora del Departamento de Seguridad Internacional y Política Exterior de Rusia, RANEPA Daria Bazarkina.

El nivel moderno de tecnologías y capacidades de la IA nos permite identificar una serie de amenazas fundamentalmente nuevas para la seguridad de la información y psicológica de una persona.

Video promocional:

Usar las tecnologías de "gente falsa" y "deepfake" para provocaciones internacionales

La empresa estadounidense de tecnología NVIDIA compartió recientemente los resultados de una red generativa-competitiva entrenada para generar sus propias imágenes de personas ("personas falsas"). La red neuronal en segundos crea imágenes de alta resolución de rostros de personas inexistentes, puede agregar cualquier característica cultural y étnica, emociones, estado de ánimo y se basa en una colección interminable de imágenes de rostros reales. En el futuro, es posible que esta experiencia sea repetida por otros desarrolladores. Al mismo tiempo, tales imágenes pueden ser utilizadas por delincuentes para todo tipo de provocaciones, que solo pueden ser reconocidas por una sociedad con conocimientos politécnicos sistémicos.

“La tecnología Deepfake puede sintetizar la imagen y la voz de una persona. Ya ha comenzado a utilizarse para crear imágenes de video de líderes mundiales, incluidos el presidente de Estados Unidos, Donald Trump, y el presidente de Rusia, Vladimir Putin. Los videos de deepfake son capaces de manipular el comportamiento de grandes grupos objetivo y pueden usarse en información y confrontación psicológica (IPP) para provocar pánico financiero o guerra”, dijo Evgeny Pashentsev, investigador líder del Instituto de Asuntos Internacionales Contemporáneos de la Academia Diplomática del Ministerio de Relaciones Exteriores de Rusia, profesor de la Universidad Estatal de Moscú.

El análisis de sentimientos es una clase de métodos de análisis de contenido en lingüística computacional diseñados para la detección automatizada de vocabulario emocionalmente coloreado y evaluación emocional de autores en textos. El análisis de sentimientos es proporcionado por una amplia gama de fuentes, como blogs, artículos, foros, encuestas, etc. Esta puede ser una herramienta muy efectiva en las API, lo que, por ejemplo, se ve confirmado por el gran interés en este tipo de desarrollos en la actualidad desde la dirección del Comando de Operaciones Especiales de EE. UU. (El Comando de Operaciones Especiales de los Estados Unidos (SOCOM).

norte

"Armas predictivas": predicción del comportamiento humano basado en datos de redes sociales

En 2012, la Agencia de Investigación de Inteligencia Avanzada de los Estados Unidos (IARPA) lanzó el programa de Reconocimiento temprano de eventos basado en modelos utilizando sustitutos (EMBERS). El propósito del desarrollo se llama pronóstico de disturbios civiles basado en el uso de IA con la determinación de la fecha, lugar, grupo de protesta de la población.

El sistema procesa datos de medios y redes sociales, así como fuentes de mayor calidad, por ejemplo, indicadores económicos. La caída de tales programas en manos de terroristas, por supuesto, también es extremadamente peligrosa. En este caso, los grandes ataques terroristas durante las manifestaciones sociales de mayor escala pueden convertirse en una amenaza probable. Un criterio adicional para elegir los objetivos de un ataque terrorista puede ser el grado de tensión social y psicológica en determinadas áreas.

Según los autores del estudio, como contramedida, los propios organismos estatales y supranacionales pueden utilizar la analítica predictiva para prevenir tensiones sociales (adopción oportuna de medidas sociales, económicas y políticas destinadas a lograr la estabilidad en el largo plazo).

Además, los grupos terroristas pueden dañar la reputación mediante el uso de bots durante las campañas políticas, así como para atraer a nuevos seguidores u organizar los asesinatos de políticos.

Captura de drones e infraestructura robótica

Los sistemas de transporte de autoaprendizaje con control de IA pueden ser objetivos convenientes para ataques terroristas de alta tecnología. La toma del control por parte de los terroristas del sistema de control de transporte en una gran ciudad puede provocar numerosas víctimas, crear pánico y crear un clima psicológico que facilitará otras actividades delictivas.

Los sistemas comerciales se pueden utilizar para desplegar vehículos aéreos no tripulados o vehículos autónomos para entregar explosivos y crear accidentes. Una serie de grandes desastres puede causar revuelo en los medios internacionales y causar un daño significativo a la seguridad de la información y psicológica.

Investigadores de la Academia Presidencial Rusa de Economía Nacional y Administración Pública y la Academia Diplomática del Ministerio de Relaciones Exteriores de la Federación de Rusia basaron su investigación en un análisis sistemático del papel de la IA en el campo de la seguridad, un método de análisis de escenarios, analogías históricas y análisis de casos. Junto con un colega de la Universidad de Uppsala (Suecia), Greg Simons, los autores del estudio se convirtieron en coeditores del próximo libro "Terrorismo y tecnologías avanzadas en la confrontación psicológica y de la información: nuevos riesgos, nuevas oportunidades para contrarrestar la amenaza terrorista", con la participación de investigadores de 11 países.

Por iniciativa de investigadores rusos, el problema del papel de la IA en el contexto de las amenazas a la información internacional y la seguridad psicológica se está debatiendo activamente y se debatirá en conferencias internacionales y seminarios de investigación internacionales autónomos. Entre ellos se encuentra una conferencia celebrada bajo los auspicios de la Comisión de la Federación de Rusia para la UNESCO y varias otras estructuras rusas e internacionales en Khanty-Mansiysk del 9 al 12 de junio. La gobernadora del Okrug Autónomo de Khanty-Mansiysk, Natalya Vladimirovna Komarova, participó activamente en la sesión de la sección sobre el problema del uso malicioso de la IA, formada con el apoyo de la Red de Expertos Europeo-Rusa para la Gestión de la Comunicación (ERESKM). En el futuro, este es el IV Foro Iberoamericano en San Petersburgo del 1 al 3 de octubre de 2019,Conferencia europea sobre el impacto de la inteligencia artificial y la robótica 31 de octubre - 1 de noviembre de 2019. Los autores de los estudios han presentado informes científicos en Argentina, Uruguay, Brasil, Sudáfrica e Italia.

En opinión de los especialistas de la RANEPA y la Academia Diplomática, es extremadamente importante en la escala de Rusia establecer la formación de programas objetivo a largo plazo, ya que el problema de la IA y la información internacional y la seguridad psicológica es un problema para el futuro cercano.

Recomendado: