El Ejército De EE. UU. Ha Formulado Principios éticos Para El Uso De La Inteligencia Artificial: Vista Alternativa

El Ejército De EE. UU. Ha Formulado Principios éticos Para El Uso De La Inteligencia Artificial: Vista Alternativa
El Ejército De EE. UU. Ha Formulado Principios éticos Para El Uso De La Inteligencia Artificial: Vista Alternativa

Vídeo: El Ejército De EE. UU. Ha Formulado Principios éticos Para El Uso De La Inteligencia Artificial: Vista Alternativa

Vídeo: El Ejército De EE. UU. Ha Formulado Principios éticos Para El Uso De La Inteligencia Artificial: Vista Alternativa
Vídeo: Límites éticos para la inteligencia artificial | DW Documental 2024, Mayo
Anonim

El Departamento de Defensa de Estados Unidos ha formulado y adoptado principios éticos guiados por los cuales se desarrollarán y aplicarán sistemas de inteligencia artificial militar en el país. Según el Pentágono, al formular los principios, las fuerzas armadas se guiaron por la Constitución de los Estados Unidos, el capítulo décimo del Código de los Estados Unidos (describe el papel de las fuerzas armadas), las leyes y costumbres de la guerra, así como los tratados internacionales y las "normas y valores establecidos".

Los avances activos en el campo de la creación de sistemas de inteligencia artificial han llevado al hecho de que dichos sistemas están comenzando a introducirse gradualmente en las armas y el equipo militar. En particular, se están desarrollando sistemas que permiten que los drones detecten y prioricen automáticamente los objetivos, o que los drones actúen como esclavos de los aviones tripulados. También se están desarrollando sistemas de inteligencia artificial capaces de descifrar transmisiones de radio. La inteligencia artificial será cada vez más importante en futuros desarrollos militares.

La introducción activa de sistemas de inteligencia artificial en armas y equipos militares plantea muchas cuestiones éticas. En particular, aún no está claro cuán legítimo es usar sistemas de armas autónomos en una guerra y qué tipo de amenaza representan para los civiles atrapados en una zona de combate.

En total, el Pentágono ha formulado cinco principios éticos para el uso de sistemas de inteligencia artificial con fines militares:

  • Responsabilidad. El personal militar debe evaluar las actividades de inteligencia artificial con el debido cuidado, siendo plenamente responsable del diseño, despliegue y uso de los sistemas de inteligencia artificial.
  • Imparcialidad. El Departamento de Defensa de EE. UU. Debe tomar medidas para minimizar las desviaciones no deseadas en las capacidades de los sistemas de inteligencia artificial.
  • Trazabilidad. Los sistemas de inteligencia artificial militar y sus capacidades deben diseñarse y desplegarse de tal manera que el personal tenga un nivel adecuado de comprensión de la tecnología, los procesos de desarrollo y las aplicaciones. Las metodologías, los datos y la documentación relacionados con los sistemas de inteligencia artificial utilizados deben estar a disposición del personal militar.
  • Fiabilidad. Las capacidades de los sistemas de inteligencia artificial militar deben ser inequívocas y estar claramente formuladas. La seguridad y eficacia de tales capacidades deben verificarse mediante pruebas y validarse durante toda su vida útil.
  • Subordinación. Los sistemas de inteligencia artificial militares deben realizar plenamente sus tareas previstas, pero los militares deben poder detectar y prevenir efectos no deseados de la inteligencia artificial. Los militares también deberían poder desactivar o cerrar los sistemas de inteligencia artificial que estén experimentando anomalías.

El Pentágono también ha designado al Centro Conjunto de Inteligencia Artificial como responsable de implementar los principios del uso de sistemas de inteligencia artificial. En total, el Departamento de Defensa de los EE. UU. Dedicó 15 meses a consultar con desarrolladores y organizaciones científicas, así como a formular los principios para el uso de sistemas de inteligencia artificial. Al mismo tiempo, algunos expertos señalaron la vaguedad de las formulaciones adoptadas y la falta de un conjunto claro de reglas de lo que los militares deben y no deben hacer al desarrollar y utilizar sistemas de inteligencia artificial.

Vasily Sychev

Recomendado: