Casi Humano: ¿Una Máquina Sensible Merece Relaciones Humanas? - Vista Alternativa

Tabla de contenido:

Casi Humano: ¿Una Máquina Sensible Merece Relaciones Humanas? - Vista Alternativa
Casi Humano: ¿Una Máquina Sensible Merece Relaciones Humanas? - Vista Alternativa

Vídeo: Casi Humano: ¿Una Máquina Sensible Merece Relaciones Humanas? - Vista Alternativa

Vídeo: Casi Humano: ¿Una Máquina Sensible Merece Relaciones Humanas? - Vista Alternativa
Vídeo: LA CONSCIENCIA Y LA PERSONALIDAD. DE INEVITABLEMENTE MUERTO A ETERNAMENTE VIVO 2024, Mayo
Anonim

¿Está familiarizado con el "experimento del carro de minas" mental? Fue formulado por primera vez en 1967 por el filósofo inglés Philip Foote, pero luego recibió interpretaciones ligeramente diferentes. El concepto clásico del experimento es encontrar una respuesta a la siguiente pregunta: “Un carro pesado e incontrolable corre por los rieles. En su camino hay cinco personas atadas a los rieles por un filósofo loco. Afortunadamente, puede cambiar el interruptor, y luego el carro se colocará en un revestimiento diferente. Desafortunadamente, hay una persona en el revestimiento, también atada a los rieles ". De una forma u otra, el resultado de su elección es hola a la muerte: morirá una persona o un grupo de cinco. ¿Cuáles son tus acciones?

Las diferentes versiones de Trolley Problems tratan con diferentes combinaciones de víctimas potenciales. En uno se da a elegir entre un grupo de criminales y una persona completamente inocente, en el otro se propone hacer una elección a favor de una persona sana y un grupo de pacientes gravemente enfermos, en el tercero se propone poner la vida de un gran cirujano de un lado de la balanza y de un niño del otro. Hay muchas opciones, pero todas giran en torno a la capacidad de una persona para tomar decisiones racionales de naturaleza moral.

En un nuevo estudio, un equipo de científicos de la Universidad de Nijmegen en los Países Bajos y la Universidad Ludwig-Maximilians de Munich (Alemania) decidió realizar un "experimento de carro" similar, pero esta vez se pidió a los participantes que eligieran entre un humano y un robot humanoide. Los resultados fueron bastante interesantes. En determinadas circunstancias, la gente estaba dispuesta a salvar al robot sacrificando vidas humanas. Los científicos publicaron sus hallazgos en la revista Social Cognition.

Los robots modernos se utilizan en muchas áreas. No se trata solo de producción. Se empiezan a utilizar en casa, en tiendas, en hospitales, en hoteles como ayudantes. Con el desarrollo de la robótica y la inteligencia artificial, estas máquinas se están volviendo cada vez más "inteligentes". Los robots se utilizan a menudo para realizar tareas muy complejas e incluso peligrosas. Por ejemplo, los ejércitos modernos usan máquinas para buscar artefactos explosivos y limpiar minas. Las observaciones muestran que una persona puede unirse a una máquina. Y cuanto mayor sea este apego, mayor será la respuesta emocional si el robot es destruido.

Los investigadores se han propuesto la tarea de comprender cuán profundamente puede extenderse la empatía humana por las máquinas y qué principios morales pueden influir en nuestro comportamiento en relación con estas máquinas, especialmente a medida que los robots modernos se vuelven cada vez más antropomórficos. Según Neissen, hasta el momento hay muy pocos estudios destinados a estudiar este tema.

La pregunta central del nuevo estudio era: ¿en qué circunstancias y en qué medida la gente estaría dispuesta a sacrificar un robot para salvar vidas humanas? Los científicos invitaron a un grupo de voluntarios a participar en el experimento. Los participantes se enfrentaron a un dilema moral: salvar a un individuo o varios. Al mismo tiempo, se pidió a las personas que eligieran primero entre un robot antropomórfico y uno ordinario que no se parecía a una persona, luego entre una persona y un robot ordinario, y luego entre una persona y un robot antropomórfico.

El estudio encontró que cuanto más "humanidad" se atribuía al robot, más difícil se volvía la elección para los participantes. Por supuesto, en una situación en la que había un automóvil común en un camino y una persona o un robot humanoide en el otro, la elección de los participantes en el experimento fue simple y obvia. Pero todo se volvió más complicado cuando, antes de que una persona tuviera que elegir entre un robot humanoide y una persona, la gente comenzó a dudar por más tiempo, señalan los investigadores. Cuando los participantes en el experimento presentaron al robot como una criatura con conciencia, sus propios pensamientos, experiencias, experiencias y emociones, era menos probable que la gente lo sacrificara a favor de salvar a una persona completamente desconocida.

Los investigadores estaban bastante preocupados por estos resultados. En su opinión, si la gente empieza a "humanizar" las máquinas, nos privará de la oportunidad de utilizarlas para el propósito según el cual fueron creadas originalmente. Para no enfrentar tal situación en el futuro, cuando las máquinas realmente se parezcan tanto a las personas como sea posible, los autores del estudio proponen desarrollar un concepto de un marco para el número máximo permitido de rasgos humanos "puestos" en un robot.

Pánico prematuro

¿Es la cuestión de la humanización de los robots y las consecuencias de esta humanización tan urgente en este momento? ¿Estamos lejos de ese punto de inflexión en el que la línea entre humanos y robots humanoides será tan borrosa que resultará problemático responder a la pregunta de quién está frente a usted, un automóvil o una persona? ¿Cuáles son las verdaderas consecuencias de todo esto que nos espera?

Según el experto, las historias aterradoras y místicas asociadas a la inteligencia artificial, los robots humanoides y el sufrimiento que pueden traer a nuestras vidas provienen directamente de los medios de comunicación. Al mismo tiempo, el experto cree que en una situación hipotética, la elección entre una máquina y una persona dependerá principalmente de la simpatía de quien elija uno u otro bando.

Nikolay Khizhnyak

Recomendado: