¡Se Acercan Los Robots De Batalla! - Vista Alternativa

¡Se Acercan Los Robots De Batalla! - Vista Alternativa
¡Se Acercan Los Robots De Batalla! - Vista Alternativa

Vídeo: ¡Se Acercan Los Robots De Batalla! - Vista Alternativa

Vídeo: ¡Se Acercan Los Robots De Batalla! - Vista Alternativa
Vídeo: TOP 6 Mejores Juegos de Robots ANDROID Y IOS || Alternativas A War robots Juegos de mechas 2024, Mayo
Anonim

Los robots asesinos reales, que realizan la tarea sin descanso y no requieren supervisión humana, pueden aparecer en servicio con los ejércitos del mundo en un año, dicen los expertos. Previendo el peligro aquí, los expertos están discutiendo si los robots asesinos y su uso en el campo de batalla deberían prohibirse por adelantado.

Image
Image

Los robots asesinos pueden estar en servicio con las tropas en un año si la ONU no toma medidas por adelantado para restringir su uso, dice el profesor de la Universidad de Sheffield, Noel Sharkey. En su opinión, estas máquinas causarán inevitablemente muertes masivas de inocentes, ya que no pueden distinguir a un militar de un civil no combatiente. Su declaración se produjo justo en un momento en que la comunidad de expertos de 120 países está discutiendo en Ginebra los riesgos potenciales asociados con el funcionamiento de sistemas de armas autónomos. El profesor Sharkey cree: hay pocas discusiones, ¡es urgente adoptar un documento sobre la limitación de la producción de robots! De lo contrario, un año después, los robots literalmente inundarán los ejércitos de los países desarrollados.

Image
Image

norte

En estos días en Ginebra, representantes de más de 90 países del mundo están discutiendo el peligro que entrañan los "sistemas de armas autónomos letales". Uno de los temas importantes de discusión es cómo garantizar la seguridad de su uso en una situación de combate. Muchos expertos, incluido el profesor Sharkey, insisten en que, a pesar de la autonomía de los sistemas, una persona debe tener constantemente la capacidad de "controlar los principios" sobre ellos, por la seguridad de la humanidad. "Un robot todavía no puede tomar decisiones como un humano", dice el profesor Sharkey. - No es completamente capaz. para comprender la lógica de las hostilidades, no puede distinguir a un aliado de un enemigo y tomar una decisión sobre la permisibilidad de ciertas acciones. “No podemos dejar que el robot decida si, por ejemplo, la vida de Osama bin Laden vale la pena, para que 50 ancianas y 20 niños mueran con él,Sharkey dice. - Al robot no le importa. Las decisiones fundamentales, por ejemplo, sobre la elección de un objetivo, deben ser tomadas por una persona ". Según el profesor Sharkey, si esas decisiones se dejan en manos de los robots, "las consecuencias de su uso no serán menos devastadoras que el uso de armas químicas".

Image
Image

El profesor Sharkey es uno de los 57 expertos que firmaron una carta abierta dirigida a la Universidad de Corea del Sur, en la que los expertos protestan contra el programa para el desarrollo de armas inteligentes. El Instituto Coreano de Ciencia y Alta Tecnología Kaist está lanzando actualmente este programa con el fabricante de equipos militares Hanwa Systems, y la noticia ha conmocionado a la comunidad científica. “Una universidad, una institución científica, no puede hacer esto desde un punto de vista moral”, dice el profesor Sharkey, con quien los otros signatarios están totalmente de acuerdo.

Según los expertos, los robots asesinos automáticos abrirán la Caja de Pandora, revolucionando el camino de la guerra.

Video promocional:

Representantes del Instituto Kaist ya han respondido a la carta abierta, asegurando a sus colegas que no planean crear droides al estilo Skynet.

Image
Image

Representantes del Instituto Keist aseguraron a sus colegas que, como institución académica, “valoran mucho los estándares universales de ética y moralidad” y no tienen la intención de desarrollar soldados robóticos que operen fuera del control humano. Hasta la fecha, el Instituto Kaist solo está realizando investigaciones en esta área. Sobre esto, los autores de la carta abierta se calmaron y no boicotearon a sus colegas. Sin embargo, la cuestión de si la humanidad podrá ponerse de acuerdo sobre los principios generales del control total sobre las acciones de los robots de combate sigue abierta. Mientras tanto, hoy en día no es importante en teoría. Hoy en día, los robots altamente funcionales ya son mecanismos tan complejos que incluso los especialistas no comprenden completamente cómo funciona su inteligencia artificial. Y sin comprender completamente esto, no pueden predecircuándo exactamente puede fallar. “Si la humanidad está destinada a ser destruida, lo más probable es que la inteligencia artificial juegue un papel importante en este proceso”, dice uno de los participantes en la conferencia de Ginebra. Según Elon Musk, la inteligencia artificial hoy conlleva más amenazas para la humanidad que Corea del Norte. Musk está convencido de que los robots deben estar constantemente bajo un estricto control de los humanos, y ha pedido repetidamente a los gobiernos de diferentes países que desarrollen reglas claras para el control de los sistemas con inteligencia artificial.que Corea del Norte. Musk está convencido de que los robots deben estar constantemente bajo un estricto control de los humanos, y ha pedido repetidamente a los gobiernos de diferentes países que desarrollen reglas claras para el control de los sistemas con inteligencia artificial.que Corea del Norte. Musk está convencido de que los robots deben estar constantemente bajo un estricto control de los humanos, y ha pedido repetidamente a los gobiernos de diferentes países que desarrollen reglas claras para el control de los sistemas con inteligencia artificial.

Varvara Lyutova

Recomendado: