Construyendo Una Máquina Moral: ¿quién Será Responsable De La ética De Los Coches Autónomos? - Vista Alternativa

Tabla de contenido:

Construyendo Una Máquina Moral: ¿quién Será Responsable De La ética De Los Coches Autónomos? - Vista Alternativa
Construyendo Una Máquina Moral: ¿quién Será Responsable De La ética De Los Coches Autónomos? - Vista Alternativa

Vídeo: Construyendo Una Máquina Moral: ¿quién Será Responsable De La ética De Los Coches Autónomos? - Vista Alternativa

Vídeo: Construyendo Una Máquina Moral: ¿quién Será Responsable De La ética De Los Coches Autónomos? - Vista Alternativa
Vídeo: INTELIGENCIA ARTIFICIAL Parte 2: Las decisiones de los COCHES AUTÓNOMOS. 2024, Abril
Anonim

Está conduciendo por una carretera cuando un hombre sale corriendo hacia una carretera muy transitada. Los coches se mueven a tu alrededor y tienes una fracción de segundo para tomar una decisión: ¿tratar de evitar a una persona y crear el riesgo de un accidente? ¿Continuar conduciendo con la esperanza de que tenga tiempo? ¿Frenar? ¿Cómo califica las probabilidades de tener un niño atado en el asiento trasero? En muchos sentidos, este es un clásico "dilema moral", un problema de tranvía. Tiene un millón de opciones diferentes que te permiten identificar los prejuicios humanos, pero la esencia es la misma.

Te encuentras en una situación en la que la vida o la muerte están en juego, no hay una elección sencilla y tu decisión, de hecho, determinará quién vive y quién muere.

El dilema del carro y la inteligencia artificial

norte

El nuevo artículo del MIT, publicado la semana pasada en la revista Nature, está tratando de encontrar una solución funcional al problema de los carritos con millones de voluntarios. El experimento comenzó en 2014 y fue un éxito, ya que recibió más de 40 millones de respuestas de 233 países, lo que lo convierte en uno de los estudios morales más grandes jamás realizados.

Una persona puede tomar tales decisiones de forma inconsciente. Es difícil sopesar todos los sistemas éticos y prerrequisitos morales cuando su automóvil está corriendo por la carretera. Pero en nuestro mundo, las decisiones se toman cada vez más mediante algoritmos y las computadoras pueden responder fácilmente más rápido que nosotros.

Las situaciones hipotéticas con vehículos autónomos no son las únicas decisiones morales que deben tomar los algoritmos. Los algoritmos médicos elegirán quién recibe tratamiento con recursos limitados. Los drones automatizados elegirán cuánto "daño colateral" es aceptable en un enfrentamiento militar individual.

Video promocional:

No todos los principios morales son iguales

Las "soluciones" al problema del carrito son tan variadas como los problemas mismos. ¿Cómo tomarán las máquinas decisiones morales cuando los fundamentos de la moralidad y la ética no son universalmente aceptados y pueden no tener soluciones? ¿Quién puede determinar si un algoritmo funciona bien o mal?

El enfoque de crowdsourcing adoptado por los científicos de Moral Machine es bastante pragmático. En última instancia, para que el público acepte los coches autónomos, debe aceptar la base moral detrás de sus decisiones. No será bueno que los especialistas en ética o los abogados encuentren una solución que sea inaceptable o inaceptable para los conductores comunes.

Los resultados conducen a la curiosa conclusión de que las prioridades morales (y, por tanto, las decisiones algorítmicas que pueden tomar los humanos) dependen de en qué parte del mundo se encuentre.

En primer lugar, los científicos reconocen que es imposible conocer la frecuencia o la naturaleza de estas situaciones en la vida real. Las personas que han estado involucradas en un accidente a menudo no pueden decir qué sucedió exactamente, y la variedad de situaciones posibles impide una clasificación simple. Por lo tanto, para que el problema sea posible de rastrear, debe dividirse en escenarios simplificados, buscando reglas y principios morales universales.

Cuando realiza una encuesta, se le presentan trece preguntas que requieren una simple opción de sí o no, tratando de reducir las respuestas a nueve factores.

¿Debería el automóvil girar a otro carril o seguir en movimiento? ¿Deberías salvar a los jóvenes, no a los ancianos? ¿Mujeres u hombres? ¿Animales o personas? ¿Debería intentar salvar tantas vidas como sea posible, o un niño "vale" dos personas mayores? ¿Salvar a los pasajeros en un automóvil, no a los peatones? ¿Aquellos que no siguen las reglas o aquellos que no siguen las reglas? ¿Deberías salvar a personas que son físicamente más fuertes? ¿Qué pasa con las personas con un estatus social más alto, como médicos o empresarios?

norte

En este duro mundo hipotético, alguien tiene que morir y usted responderá a cada una de estas preguntas con distintos grados de entusiasmo. Sin embargo, tomar estas decisiones también revela normas y prejuicios culturales profundamente arraigados.

El procesamiento del enorme conjunto de datos examinados por los científicos produce reglas universales, así como curiosas excepciones. Los tres factores más dominantes, promediados en toda la población, fueron que todos preferían salvar más vidas que menos, personas en lugar de animales y jóvenes en lugar de viejos.

Diferencias regionales

Puede estar de acuerdo con estos puntos, pero cuanto más los piense, más inquietantes serán las conclusiones morales. Más encuestados optaron por salvar al delincuente antes que al gato, pero en general prefirieron salvar al perro antes que al delincuente. En el promedio mundial, ser anciano tiene una calificación más alta que estar sin hogar, pero las personas sin hogar fueron menos rescatadas que las personas gordas.

Y estas reglas no eran universales: los encuestados de Francia, el Reino Unido y los Estados Unidos preferían a los jóvenes, mientras que los encuestados de China y Taiwán estaban más dispuestos a salvar a los ancianos. Los encuestados de Japón prefirieron salvar a los peatones a los pasajeros, mientras que en China prefieren a los pasajeros a los peatones.

Los investigadores encontraron que podían agrupar las respuestas por país en tres categorías: "Occidente", principalmente América del Norte y Europa, donde la moral se basa en gran medida en la doctrina cristiana; "Oriente": Japón, Taiwán, Oriente Medio, donde predominan el confucianismo y el islam; Países del "sur", incluidos América Central y del Sur, junto con una fuerte influencia cultural francesa. Hay una preferencia más fuerte por el sacrificio femenino en el segmento sur que en cualquier otro lugar. En el segmento oriental, hay una mayor tendencia a salvar a los jóvenes.

El filtrado por diferentes atributos de encuestados ofrece un sinfín de opciones interesantes. Es poco probable que los encuestados “muy religiosos” prefieran salvar a un animal, pero tanto los encuestados religiosos como los no religiosos expresan aproximadamente la misma preferencia por salvar a personas con un estatus social alto (aunque se puede decir que esto es contrario a algunas doctrinas religiosas). Los hombres y las mujeres prefieren salvar a las mujeres, pero los hombres están menos inclinados a hacerlo.

Preguntas sin respuesta

Nadie afirma que esta investigación "resuelva" de alguna manera todos estos importantes problemas morales. Los autores del estudio señalan que el crowdsourcing de datos en línea implica sesgo. Pero incluso con un tamaño de muestra grande, el número de preguntas fue limitado. ¿Qué pasa si los riesgos cambian según la decisión que tome? ¿Qué pasa si el algoritmo puede calcular que solo tienes un 50 por ciento de posibilidades de matar a los peatones, dada la velocidad a la que te mueves?

Edmond Awad, uno de los autores del estudio, expresó cautela sobre la interpretación excesiva de los resultados. La discusión, en su opinión, debería fluir hacia el análisis de riesgo - quién está más o menos en riesgo - en lugar de decidir quién muere y quién no.

Pero el resultado más importante del estudio fue la discusión que estalló en su suelo. A medida que los algoritmos comienzan a tomar decisiones cada vez más importantes que afectan la vida de las personas, es imperativo que tengamos una discusión continua sobre la ética de la IA. Diseñar una "conciencia artificial" debe incluir la opinión de todos. Si bien es posible que las respuestas no siempre sean fáciles de encontrar, es mejor intentar formar un marco moral para los algoritmos al no permitir que los algoritmos den forma al mundo por sí mismos sin el control humano.

Recomendado: