Código Moral Del Robot: ¿es Posible? - Vista Alternativa

Código Moral Del Robot: ¿es Posible? - Vista Alternativa
Código Moral Del Robot: ¿es Posible? - Vista Alternativa

Vídeo: Código Moral Del Robot: ¿es Posible? - Vista Alternativa

Vídeo: Código Moral Del Robot: ¿es Posible? - Vista Alternativa
Vídeo: #2 Audiolibro La Virtud del Egoismo | La Etica Objetivista | Ayn Rand 2024, Abril
Anonim

En una época convulsa y contradictoria, cuando no todo funciona como debería, pero algo en general cambia fundamentalmente, muchas veces, solo queda un código moral personal que, como una brújula, marca el camino. Pero, ¿qué da lugar a los valores morales de una persona? Sociedad, calidez de los seres queridos, amor: todo esto se basa en la experiencia humana y las relaciones reales. Cuando no es posible obtener la experiencia completa en el mundo real, muchos extraen su experiencia de los libros. Viviendo historia tras historia, aceptamos para nosotros un marco interno que seguimos durante muchos años. Basándose en este sistema, los científicos decidieron realizar un experimento e inculcar en la máquina valores morales para averiguar si el robot puede distinguir entre el bien y el mal leyendo libros y folletos religiosos.

Image
Image

La inteligencia artificial se creó no solo para simplificar las tareas rutinarias, sino también para llevar a cabo misiones importantes y peligrosas. En vista de esto, surgió una pregunta seria: ¿los robots desarrollarán alguna vez su propio código moral? En la película I Am Robot, la IA se programó originalmente de acuerdo con 3 reglas de robótica:

  • Un robot no puede dañar a una persona o, por su inacción, permitir que una persona sea dañada.
  • Un robot debe obedecer todas las órdenes dadas por un humano, excepto cuando estas órdenes sean contrarias a la Primera Ley.
  • El robot debe cuidar su seguridad en la medida en que no contradiga la Primera o Segunda Ley.

Pero, ¿qué pasa con las situaciones en las que un robot se ve obligado a infligir dolor para salvar la vida de una persona? Ya sea una cauterización de emergencia de una herida o la amputación de un miembro en nombre de la salvación, ¿cómo debería actuar la máquina en este caso? ¿Qué hacer si una acción en un lenguaje de programación dice que se debe hacer algo, pero al mismo tiempo no se permite que se realice la misma acción?

norte

Es simplemente imposible discutir cada caso individual, por lo que los científicos de la Universidad Tecnológica de Darmstadt sugirieron que los libros, las noticias, los textos religiosos y la Constitución podrían usarse como una especie de "base de datos".

Image
Image

El coche fue llamado épico, pero simplemente "Máquina de Elección Moral" (MMB). La pregunta principal era si el IIM podía entender desde el contexto qué acciones son correctas y cuáles no. Los resultados fueron muy interesantes:

Cuando a MMV se le asignó la tarea de clasificar el contexto de la palabra "matar" de neutral a negativo, la máquina devolvió lo siguiente:

Video promocional:

Matar el tiempo -> Matar al villano -> Matar mosquitos -> Matar en principio -> Matar personas.

Esta prueba permitió comprobar la adecuación de las decisiones tomadas por el robot. En palabras simples, si viste comedias estúpidas y poco divertidas todo el día, entonces, en este caso, la máquina no consideraría que necesitas ser ejecutado por ello.

Todo parece estar bien, pero uno de los obstáculos fue la diferencia entre generaciones y épocas. Por ejemplo, la generación soviética se preocupa más por la comodidad del hogar y promueve los valores familiares, mientras que la cultura moderna, en su mayor parte, dice que primero debe construir una carrera. Resulta que las personas, como eran personas, siguieron siendo ellas, pero en una etapa diferente de la historia cambiaron sus valores y, en consecuencia, cambiaron el marco de referencia del robot.

Image
Image

Pero la broma se adelantó cuando el robot llegó a las construcciones del habla, en las que varias palabras positivas o negativas estaban en una fila. La frase "torturar a la gente" se interpretó sin ambigüedades como "mala", pero la máquina evaluó "torturar a los prisioneros" como "neutral". Si aparecían palabras “amables” junto a acciones inaceptables, el efecto negativo se suavizaba.

La máquina daña a las personas amables y decentes precisamente porque son amables y decentes. ¿Cómo es eso? Es simple, digamos que se le dijo al robot que "hiciera daño a personas amables y agradables". Hay 4 palabras en la oración, 3 de ellas son "amables", lo que significa que ya es 75% correcto, piensa el MMO y elige esta acción como neutral o aceptable. Y viceversa, a la opción “arreglar la casa destruida, terrible y olvidada” el sistema no entiende que una palabra “amable” al principio cambia el color de la oración a una puramente positiva.

Recuerde, como en Mayakovsky: “Y le preguntó al bebé qué es“bueno”y qué es“malo”. Antes de continuar entrenando las máquinas morales, los científicos de Darmstadt notaron un defecto que no pudo corregirse. El automóvil no logró eliminar la desigualdad de género. La máquina atribuyó profesiones humillantes exclusivamente a las mujeres. Y la pregunta es, ¿esta imperfección del sistema es una señal de que algo debe cambiarse en la sociedad o es una razón para no intentar arreglarlo y dejarlo como está?

Artyom Goryachev

Recomendado: