"Hacer Robots Asesinos Es Una Muy, Muy Mala Idea" - Vista Alternativa

Tabla de contenido:

"Hacer Robots Asesinos Es Una Muy, Muy Mala Idea" - Vista Alternativa
"Hacer Robots Asesinos Es Una Muy, Muy Mala Idea" - Vista Alternativa

Vídeo: "Hacer Robots Asesinos Es Una Muy, Muy Mala Idea" - Vista Alternativa

Vídeo:
Vídeo: ¿Cómo los hombres podemos ser aliados en la prevención de la violencia de género? 2024, Mayo
Anonim

Clearpath Robotics fue fundada hace seis años por tres amigos universitarios que comparten la pasión por hacer cosas. 80 especialistas de la compañía están probando robots para terrenos difíciles como el Husky, un robot de cuatro ruedas utilizado por el Departamento de Defensa de EE. UU.

Fornido

Image
Image

También fabrican drones e incluso construyeron el barco robótico Kingfisher. Sin embargo, nunca construirán una cosa segura: un robot que pueda matar.

norte

Clearpath es la primera y hasta ahora la única empresa de robots que se compromete a no construir robots asesinos. La decisión fue tomada el año pasado por el cofundador y CTO Ryan Garipay, y de hecho, incluso trajeron expertos a quienes les gustó la posición ética única de Clearpath.

La ética de las empresas de robots ha pasado a primer plano recientemente. Verá, estamos con un pie en un futuro donde existirán robots asesinos. Y todavía no estamos completamente preparados para ellos.

Por supuesto, aún queda un largo camino por recorrer. Dodam Systems de Corea, por ejemplo, está construyendo una torreta robótica autónoma llamada Super aEgis II. Utiliza cámaras termográficas y telémetros láser para identificar y atacar objetivos a una distancia de hasta 3 kilómetros. Según se informa, Estados Unidos también está experimentando con sistemas autónomos de misiles.

Video promocional:

A dos pasos de los "terminadores"

Los drones militares como el Predator son actualmente operados por humanos, pero Garipai dice que serán completamente automáticos y autónomos muy pronto. Y eso le preocupa. Muy. “Los sistemas de armas autónomos letales pueden salir de la línea de montaje ahora. Pero los sistemas de armas mortales, que se fabricarán de acuerdo con estándares éticos, ni siquiera están en los planes.

Image
Image

Para Garipay, el problema radica en los derechos internacionales. Siempre hay situaciones de guerra en las que el uso de la fuerza parece necesario, pero también puede poner en peligro a transeúntes inocentes. ¿Cómo se crean robots asesinos que tomarán las decisiones correctas en cualquier situación? ¿Cómo podemos determinar por nosotros mismos cuál debería ser la decisión correcta?

Ya vemos problemas similares con el ejemplo del transporte autónomo. Digamos que un perro cruza la calle corriendo. ¿Debería el coche robot virar bruscamente para evitar golpear al perro pero poner en riesgo a sus pasajeros? ¿Y si no es un perro, sino un niño? ¿O un bus? Ahora imagina una zona de guerra.

"No podemos ponernos de acuerdo sobre cómo escribir un manual para un automóvil así", dice Garipay. "Y ahora también queremos pasar a un sistema que debe decidir de forma independiente si usar fuerza letal o no".

Haz cosas interesantes, no armas

Peter Asaro ha pasado los últimos años presionando por la prohibición de los robots asesinos en la comunidad internacional, como fundador del Comité Internacional para el Control de Ejércitos Robóticos. Cree que ha llegado el momento de "una clara prohibición internacional de su desarrollo y uso". Permitirá que empresas como Clearpath sigan haciendo cosas interesantes, dijo, "sin preocuparse de que sus productos puedan utilizarse para violar los derechos humanos y amenazar a los civiles".

Los misiles autónomos son de interés para los militares porque resuelven un problema táctico. Cuando los drones controlados a distancia, por ejemplo, están operando en condiciones de combate, no es raro que el enemigo interfiera los sensores o la conexión de red para que el operador humano no pueda ver lo que está sucediendo o controlar el dron.

Garipay dice que en lugar de desarrollar misiles o drones que puedan decidir por sí mismos qué objetivo atacar, el ejército necesita gastar dinero en mejorar los sensores y la tecnología de interferencia.

“¿Por qué no tomamos la inversión que a la gente le gustaría hacer para construir robots asesinos autónomos e invertirla en hacer que la tecnología existente sea más eficiente? él dice. "Si nos planteamos un desafío y superamos esta barrera, podemos hacer que esta tecnología funcione en beneficio de las personas, no solo de los militares".

Recientemente, también se ha hablado más sobre los peligros de la inteligencia artificial. A Elon Musk le preocupa que una IA fuera de control pueda destruir la vida tal como la conocemos. Musk donó $ 10 millones el mes pasado para la investigación en inteligencia artificial.

Una de las grandes preguntas sobre cómo afectará la IA a nuestro mundo es cómo se fusionará con la robótica. A algunos, como al investigador de Baidu Andrew Ng, les preocupa que la próxima revolución de la inteligencia artificial acabe con los puestos de trabajo de las personas. Otros, como Garipay, temen que pueda costar vidas.

Garipay espera que sus colegas, científicos y fabricantes de máquinas reflexionen sobre lo que están haciendo. Es por eso que Clearpath Robotics se puso del lado de la gente. "Si bien nosotros, como empresa, no podemos apostar 10 millones de dólares, podemos apostar nuestra reputación".

Recomendado: