¿Nos Protegerán Las “tres Leyes De La Robótica”? - Vista Alternativa

Tabla de contenido:

¿Nos Protegerán Las “tres Leyes De La Robótica”? - Vista Alternativa
¿Nos Protegerán Las “tres Leyes De La Robótica”? - Vista Alternativa

Vídeo: ¿Nos Protegerán Las “tres Leyes De La Robótica”? - Vista Alternativa

Vídeo: ¿Nos Protegerán Las “tres Leyes De La Robótica”? - Vista Alternativa
Vídeo: ¿Qué desafíos éticos y jurídicos plantean la robótica y la inteligencia artificial? 2024, Abril
Anonim

Han pasado 50 años desde que Isaac Asimov ideó sus famosas Tres leyes de la robótica, un conjunto de reglas que cualquier robot que se precie debe seguir. Aunque inicialmente fue solo un recurso literario, las tres leyes se convirtieron en la receta original para evitar el "robotocalipsis". Afortunadamente, hay expertos que están buscando con certeza si las garantías de Azimov han resistido la prueba del tiempo. Desafortunadamente, todos dicen que no.

Para empezar, recordemos estas mismas tres leyes:

Un robot no puede dañar a una persona o, por su inacción, permitir que una persona sea dañada.

norte

Un robot debe obedecer todas las órdenes dadas por un humano, excepto cuando estas órdenes sean contrarias a la Primera Ley.

El robot debe cuidar su seguridad en la medida en que no contradiga la Primera y Segunda Ley.

Más tarde, Azimov agregó una cuarta ley, o cero, que precedió a las demás en términos de prioridad:

Video promocional:

0. Un robot no puede dañar a una persona, a menos que pueda demostrar que, en última instancia, será beneficioso para toda la humanidad.

Image
Image

En el universo de fantasía de Asimov, casi todos los robots tenían que seguir estas leyes. Estas no eran solo sugerencias o pautas, las leyes se integraron en el software. Además, estas reglas no se pueden eludir, reescribir o revisar.

Como mostró el propio Asimov, las imperfecciones, lagunas y ambigüedades en estas leyes a menudo conducían a un comportamiento extraño e ilógico de los robots. Las leyes eran demasiado vagas y, a menudo, no lograban definir y distinguir a los "humanos" de los "robots". Además, los robots podrían infringir las leyes sin saberlo si no disponían de información completa. Además, un robot o una inteligencia artificial demasiado astutos tenían que estar bajo presión para no reprogramar su núcleo.

Es el año 2014, y gran parte de los lugares comunes de nuestras vidas a las fantasías del siglo pasado podrían parecer pura fantasía. Mucha gente sintió que las leyes de Asimov deberían haber permanecido como un recurso literario. Pero el propio Azimov señaló en 1981 que sus leyes podrían funcionar. El Compute! él indicó lo siguiente:

“Cuando alguien me pregunta cómo sería si mis tres leyes de la robótica se usaran realmente para definir el comportamiento de los robots, la respuesta está lista. Siempre que, por supuesto, los robots sean lo suficientemente flexibles y versátiles como para exhibir diferentes comportamientos. Mi respuesta es sí, las tres leyes son la única forma en que los humanos pueden interactuar con los robots, o con cualquier otra cosa.

Casi treinta años después, nos hemos acercado a una realidad en la que tendremos robots -o, más precisamente, la inteligencia artificial que los controla- lo suficientemente flexibles y versátiles para diferentes cursos de comportamiento. Solo es cuestión de tiempo: cuando la máquina supera al hombre en todos los aspectos, desde la fuerza física hasta el poder de la imaginación.

Lo aterrador es que prácticamente no hay margen de error. Si la superinteligencia artificial está mal programada o es indiferente a los humanos, conducirá al desastre. Necesitamos asegurarnos de que la inteligencia artificial sea segura si queremos sobrevivir a su aparición.

Responda a la pregunta "¿pueden ayudar las tres leyes de Azimov?" Dos teóricos de la inteligencia artificial se hicieron cargo: Ben Herzel (Aidyia Holdings) y Louis Helm, subdirector del Instituto de Investigación de Inteligencia Artificial (MIRI) y editor ejecutivo de la revista Rockstar Research. Después de hablar con ellos, quedó claro que las leyes de Asimov generalmente no pueden hacer frente a la tarea que se les asigna, y si necesitamos crear una IA segura, tendremos que desarrollar algo completamente diferente.

¿El futuro de Asim?

Image
Image

La conversación con Herzel y Helm comenzó con lo que Asimov no se equivocó, prediciendo el futuro, y dónde se equivocó.

"Creo que el tipo de robots que Asimov imaginó será posible en un futuro no muy lejano", responde Herzel. - Sin embargo, en la mayoría de sus mundos ficticios, el escritor asumió que los robots humanoides serían el pináculo de la robótica y la ingeniería de inteligencia artificial. Eso es poco probable. Muy pronto, después de alcanzar el estado de robots Azimov, estará disponible la creación de superinteligencia artificial y super robots ".

Así, el típico mundo del futuro en las historias de Asimov sobre robots, según Herzel, será similar al que vivimos hoy, pero con robots inteligentes recorriendo las calles.

"Es poco probable que esto suceda, y si sucede, no se retrasará por mucho tiempo".

Para Helm, los robots parecen ser completamente diferentes.

“El problema principal, que, en mi opinión, será el más importante para la humanidad, no sigue siendo la regulación moral de un número gigantesco de humanoides semiinteligentes, sino en última instancia el desarrollo de formas avanzadas de inteligencia artificial (en cualquier cuerpo). Este desarrollo de superinteligencia es un filtro por el que la humanidad debe pasar al final. Por eso es tan importante desarrollar una estrategia de seguridad para esta transición. Me parece completamente extraño que los robots, androides o "emulaciones" existan durante diez años o un poco más hasta que la humanidad se enfrente al problema real de desarrollar la ética de las máquinas para la superinteligencia ".

¿Un buen comienzo?

Image
Image

Teniendo en cuenta que las tres Leyes de la Robótica Asimov fueron el primer intento sincero de resolver un problema muy grave, el problema del comportamiento seguro de las máquinas con superinteligencia artificial, vale la pena buscar esos momentos en los que las leyes aún pueden ser efectivas (o al menos inspiradoras).

"Para ser honesto, no encuentro ninguna inspiración en estas tres leyes de la robótica", dice Helm. - La esencia de la ética de las máquinas es que no satisfacen la base de la ética de las máquinas. Quizás las tres leyes de la robótica sean ampliamente conocidas, pero en realidad es inútil utilizarlas como base para la programación ".

“Por alguna razón, un sistema de buena ética, llamado deontología, se ha convertido en una base poco confiable para la ética. Hay varios filósofos que intentan solucionar los problemas de la deontología, pero en su mayor parte son las mismas personas que buscan un "diseño inteligente" y una "intervención divina". Nadie los toma en serio ".

Las desventajas de las tres leyes de la robótica de Asimov se reducen a lo siguiente:

norte

Adversario por naturaleza

Basado en una teoría ética obsoleta (deontología)

Ni siquiera trabajes en la ficción

Herzel está de acuerdo:

“El propósito de las tres leyes era romperlas de una manera interesante; por eso sus historias son especialmente entretenidas. Por lo tanto, las tres leyes pueden seguir siendo solo un ejemplo moral de cómo no hacerlo. Si las tomamos como base, inevitablemente habrá lagunas en ellas”.

Herzel cree que en realidad estas leyes no funcionarán, ya que los términos con su participación son ambiguos y siguen siendo objeto de interpretación, lo que significa que son extremadamente dependientes de quienes realizan las traducciones.

¿Prejuicio contra los robots?

Otro aspecto (y falla potencial) de las Tres Leyes en el aparente chovinismo es la suposición de que los robots deben permanecer, a pesar de su poder superior, subordinados a los humanos, las necesidades y prioridades humanas.

“La sociedad del futuro de Azimov se compone completamente de chovinistas: las personas tienen muchos más derechos que los robots. Las tres leyes de la robótica se crearon para mantener ese orden social.

Image
Image

Helm ve este problema de manera un poco diferente, argumentando que si nos encontramos en tal situación, será en sí mismo una evidencia de que hemos ido demasiado lejos.

“Creo que no sería prudente diseñar un sistema de inteligencia artificial o un robot autoconsciente. Y a diferencia de películas o libros en los que los creadores de inteligencia artificial llegan "accidentalmente" a las máquinas inteligentes, yo no creo que esto pueda suceder en la vida real. Esto requerirá demasiado esfuerzo y conocimiento. Y la mayoría de los diseñadores de IA son personas con conocimientos éticos, por lo que evitarán crear lo que los filósofos llaman "seres moralmente significativos". Especialmente cuando pueden crear fácilmente una máquina avanzada que no tiene inclinaciones éticas ".

A Helm no le preocupa la necesidad de desarrollar leyes asimétricas para gobernar el valor de los robots sobre los humanos, argumentando (y esperando) que los futuros creadores de inteligencia artificial dependerán de algunas limitaciones éticas.

“Creo que los humanos están hechos de átomos, así que, en teoría, un ingeniero puede crear una forma de vida sintética o un robot con un significado moral. Me gustaría pensar que nadie hará esto. Creo que la mayoría de la gente también lo hace. Pero, inevitablemente, habrá un tonto que quiera ser conocido como un pionero, incluso si es poco ético y estúpido.

¿Tres leyes de la robótica 2.0?

Dadas las obvias deficiencias de las tres leyes de la robótica de Asimov, el recurso io9 planteó la pregunta: ¿se pueden corregir o mejorar? De hecho, muchos escritores de ciencia ficción lo han intentado muchas veces, modificándolo a lo largo de los años.

"No", dice Helm. "No hay parches para las tres leyes".

Además de su naturaleza contradictoria, las leyes también son de naturaleza contradictoria.

"Soy un defensor de los enfoques de la ética de las máquinas que son más cooperativos, más consistentes y más normativos, lo que significa que pueden recuperarse de malentendidos o corregir una programación incorrecta".

Herzel se hace eco de las afirmaciones de Helm.

Definir un conjunto de preceptos éticos como el núcleo de la ética de la máquina será inútil si la máquina se basa en una inteligencia artificial general flexible. Si se concibe como intuitivo, flexible, adaptativo o ético, en este contexto, los preceptos éticos serán útiles para el sistema solo como una guía aproximada para la aplicación de su propia intuición ética. Pero en este caso, los mandamientos no se convertirán en la base del sistema ético, sino solo en un aspecto. Esto se puede ver en ejemplos humanos: los principios éticos que estudiamos funcionan, pero no como pautas, solo impulsan nuestra intuición e instintos éticos. Somos prácticamente independientes de los principios éticos.

¿Cómo crear inteligencia artificial segura?

Dada la insuficiencia del enfoque legal, puede preguntar a Gertzel y Helm acerca de los enfoques modernos del problema de la "IA segura".

"Muy pocos investigadores de inteligencia artificial general creen que es posible crear un sistema que sea completamente seguro", dice Herzel. "Pero esto no molesta a la mayoría, ya que no se puede garantizar nada en esta vida".

Herzel cree que una vez que creamos un sistema de inteligencia artificial general o su embrión, podemos realizar investigaciones y experimentos que nos dirán mucho más sobre la ética de la IA de lo que sabemos.

“Ojalá así podamos formular buenas teorías sobre la ética de la inteligencia artificial que nos permitan profundizar en este tema. Pero ahora es bastante difícil teorizar sobre la ética de la IA, ya que no solo tenemos buenas teorías, no tenemos teorías en absoluto.

“Y para las personas que han observado demasiados terminadores, el proceso de creación de inteligencia artificial puede parecer intimidante, ya que pierden la palabra“primitivo”en este contexto. Sin embargo, los cambios más radicales ocurrieron de esta manera.

"Cuando un grupo de hombres de las cavernas inteligentes inventó el lenguaje, no esperaban el desarrollo de una teoría formal sólida del lenguaje que pudiera ayudar a predecir los cambios futuros causados por el surgimiento del lenguaje en la sociedad".

Antes de considerar el desarrollo de las siguientes "tres leyes" como un problema técnico, es necesario investigar mucho. Y aquí es donde Helm y Herzel están de acuerdo.

“Mi colega de MIRI Luc Muelhauser resumió nuestro razonamiento de la siguiente manera. Dijo que los problemas a menudo pasan de la filosofía a las matemáticas y luego a la ingeniería. A la filosofía a menudo se le hacen las preguntas correctas, pero de la manera más impráctica. Nadie puede decir con certeza si ha habido algún progreso en la resolución del problema. Si podemos reformular los importantes problemas filosóficos de la razón, la identificación y el valor en fórmulas precisas que un matemático pueda manejar, entonces se puede construir algún modelo. Un buen día llegará a la ingeniería.

Helm encuentra este problema difícil para la ciencia y la filosofía, pero el progreso es posible.

“Soy escéptico de que la filosofía pueda resolver un problema que ha estado luchando durante más de 3000 años. Pero nosotros tampoco podemos tomar y comenzar a hacer modelos matemáticos de preguntas que no están técnicamente presentes. Todavía necesitamos muchos desarrollos teóricos e incluso prácticos.

Recomendado: