¿Cuándo Los Robots Y La Inteligencia Artificial Merecen Derechos Humanos? - Vista Alternativa

Tabla de contenido:

¿Cuándo Los Robots Y La Inteligencia Artificial Merecen Derechos Humanos? - Vista Alternativa
¿Cuándo Los Robots Y La Inteligencia Artificial Merecen Derechos Humanos? - Vista Alternativa

Vídeo: ¿Cuándo Los Robots Y La Inteligencia Artificial Merecen Derechos Humanos? - Vista Alternativa

Vídeo: ¿Cuándo Los Robots Y La Inteligencia Artificial Merecen Derechos Humanos? - Vista Alternativa
Vídeo: Despedidos por un robot: la inteligencia artificial llega a los recursos humanos (para quedarse) 2024, Mayo
Anonim

Películas y series de televisión como Blade Runner, People y Westworld, donde nos muestran robots de alta tecnología que no tienen derechos, no pueden dejar de preocupar a las personas con conciencia. Después de todo, no solo muestran nuestra actitud extremadamente agresiva hacia los robots, en realidad nos avergüenzan como especie. Todos estamos acostumbrados a pensar que somos mejores que esos personajes que vemos en la pantalla, y cuando llegue el momento, sacaremos las conclusiones correctas y nos comportaremos con máquinas inteligentes con mucho respeto y dignidad.

Con cada paso del progreso en robótica y el desarrollo de la inteligencia artificial, nos acercamos al día en que las máquinas igualarán las capacidades humanas en todos los aspectos de la inteligencia, la conciencia y las emociones. Cuando esto suceda, tendremos que decidir: frente a nosotros hay un objeto del nivel del refrigerador o una persona. Y deberíamos otorgarles derechos humanos, libertades y protecciones equivalentes.

Image
Image

Esta pregunta es muy extensa y no será posible resolverla de inmediato, incluso con todas las ganas. Tendrá que ser considerado y resuelto a la vez desde una variedad de puntos de vista: ética, sociología, derecho, neurobiología y teoría de la IA. Pero por alguna razón ya no parece en absoluto que todas estas partes lleguen a una conclusión común que se adapte a todos.

norte

¿Por qué potenciar la IA?

Primero, debemos admitir que ya nos estamos inclinando hacia la moralidad cuando vemos robots que son muy similares a nosotros. Cuanto más desarrolladas intelectualmente y "vivas" se vean las máquinas, más querremos creer que son como nosotros, aunque no lo sean.

Una vez que las máquinas tengan capacidades humanas básicas, nos guste o no, tendremos que considerarlas socialmente iguales, y no solo como una cosa, como la propiedad privada de alguien. La dificultad radicará en nuestra comprensión de los rasgos o rasgos cognitivos, por así decirlo, con los que será posible valorar la entidad que tenemos frente a nosotros desde el punto de vista de la moral y, por tanto, considerar el tema de los derechos sociales de esta entidad. Los filósofos y los especialistas en ética han estado luchando con este problema durante miles de años.

Video promocional:

“Hay tres umbrales éticos más importantes: la capacidad de experimentar dolor y empatía, la autoconciencia y la capacidad de ver las cosas desde un punto de vista moral y tomar decisiones adecuadas”, dice el sociólogo, futurista y director del Instituto de Ética y Nuevas Tecnologías James Hughes.

“En los seres humanos, si tienes suerte, estos tres aspectos absolutamente importantes se desarrollan de forma secuencial y gradual. Pero, ¿y si, desde el punto de vista de la inteligencia de las máquinas, se cree que un robot que no posee conciencia de sí mismo, que no experimenta alegría ni dolor, también tiene derecho a ser llamado ciudadano? Necesitamos averiguar si este será realmente el caso.

Es importante comprender que la inteligencia, la sensibilidad (la capacidad de percibir y sentir cosas), la conciencia y la autoconciencia (la conciencia de uno mismo en oposición a otro) son cosas completamente diferentes. Las máquinas o algoritmos pueden ser tan inteligentes (si no más inteligentes) que los humanos, pero carecen de estos tres ingredientes esenciales. Calculadoras, Siri, algoritmos de valores: todos son ciertamente inteligentes, pero no pueden darse cuenta de sí mismos, no pueden sentir, mostrar emociones, sentir colores, probar las palomitas de maíz.

Según Hughes, la autoconciencia puede manifestarse junto con dotar a la esencia de derechos personales mínimos, como el derecho a ser libre, no un esclavo, el derecho a los propios intereses en la vida, el derecho al crecimiento y la superación personal. Al adquirir conciencia de sí mismo y fundamentos morales (la capacidad de distinguir “lo que es bueno y lo que es malo” según los principios morales de la sociedad moderna), esta entidad debe estar dotada de derechos humanos plenos: derecho a concertar acuerdos, derecho a la propiedad, derecho al voto, etc.

“Los valores centrales de la Ilustración nos obligan a considerar estas características desde una posición de igualdad de todos antes que todos, y a abandonar las opiniones radicalmente conservadoras que antes eran generalmente aceptadas y daban derechos, digamos, solo a personas de un determinado origen social, de género o territorial”, dice Hughes.

Obviamente, nuestra civilización aún no ha alcanzado altos objetivos sociales, ya que todavía no podemos entender nuestros propios derechos y todavía estamos tratando de expandirlos.

¿Quién tiene derecho a ser llamado "persona"?

Todas las personas son individuos, pero no todos los individuos son personas. Linda MacDonald-Schlenn, especialista en bioética de la Universidad de California, Monterey Bay y profesora del Instituto de Bioética Alden Martha en el Centro Médico de Albany, dice que ya existen precedentes en la ley en los que los sujetos no humanos son tratados como sujetos de derecho. Y esto, en su opinión, es un logro muy grande, ya que de ese modo creamos las bases para abrir la posibilidad de dotar a AI en el futuro de sus propios derechos, equivalentes a los derechos humanos.

“En los Estados Unidos, todas las corporaciones tienen personalidad jurídica. En otros países, también existen precedentes en los que se intenta reconocer la interconexión e igualdad de todos los seres vivos de este planeta. Por ejemplo, en Nueva Zelanda, todos los animales son considerados inteligentes por ley, y el gobierno está fomentando activamente el desarrollo de códigos de bienestar y conducta ética. La Corte Suprema de la India llamó a los ríos Ganges y Yamuna "seres vivos" y les otorgó el estatus de entidades legales separadas ".

Además, en los Estados Unidos, como en varios otros países, ciertas especies de animales, incluidos los grandes simios, elefantes, ballenas y delfines, están sujetos a derechos extendidos para protegerlos contra el encarcelamiento, la experimentación y el abuso. Pero a diferencia de los dos primeros casos, donde quieren tomar corporaciones y ríos bajo la personalidad, la cuestión de los animales no parece ser un intento de subyugar las normas legales en absoluto. Los partidarios de estas propuestas abogan por el apoyo a una persona real, es decir, un individuo que se puede caracterizar en función de ciertas habilidades cognitivas (mentales), como la autoconciencia.

MacDonald-Glenn dice que es importante en estos asuntos abandonar la visión conservadora y dejar de considerar, ya sean animales o IA, meras criaturas y máquinas sin alma. Las emociones no son un lujo, dice un especialista en bioética, sino una parte integral del pensamiento racional y el comportamiento social. Son estas características, y no la capacidad de contar números, las que deberían jugar un papel decisivo al decidir la cuestión de "quién" o "qué" debería tener derecho a una evaluación moral.

Existe una evidencia creciente de predisposición emocional en los animales en la ciencia. La observación de delfines y ballenas demuestra que son capaces al menos de mostrar tristeza, y la presencia de células fusiformes (interneuronas que conectan neuronas distantes y participan en procesos complejos que activan el comportamiento social) puede indicar, entre otras cosas, que son capaces de empatizarse. Los científicos también describen la manifestación de diversos comportamientos emocionales en grandes simios y elefantes. Es posible que una IA consciente también pueda adquirir estas habilidades emocionales, lo que, por supuesto, aumentará significativamente su estatus moral.

“Limitar la difusión del estatus moral solo a aquellos que piensan racionalmente puede funcionar con la IA, pero al mismo tiempo, esta idea se mueve en contra de la intuición moral. Después de todo, nuestra sociedad ya protege a aquellos que no pueden pensar racionalmente: recién nacidos, personas en coma, personas con problemas físicos y mentales importantes. Recientemente, se han promovido activamente las leyes de bienestar animal”, dice MacDonald-Glenn.

Sobre la cuestión de quién debería recibir un estatus moral, MacDonald-Glenn estuvo de acuerdo con el filósofo moral inglés del siglo XVIII Jeremiah Bentham, quien dijo una vez:

“La pregunta no es si pueden razonar. ¿O pueden hablar? ¿Pero son capaces de sufrir?"

¿Puede una máquina adquirir conciencia de sí misma?

Por supuesto, no todo el mundo está de acuerdo en que los derechos humanos se extienden a los seres no humanos, incluso si esos sujetos son capaces de mostrar habilidades como la emoción o el comportamiento autorreflexivo. Algunos pensadores argumentan que solo las personas deberían tener derecho a participar en las relaciones sociales y que el mundo entero gira directamente en torno al Homo sapiens, y todo lo demás, tu consola de juegos, tu refrigerador, tu perro o tu interlocutor androide, es “todo lo demás”.

Un abogado, un escritor estadounidense y un miembro principal del Instituto Wesley J. Smith para el Excepcionalismo Humano, cree que nosotros mismos aún no hemos recibido los derechos humanos universales, y es aún más prematuro pensar en piezas de hierro brillantes y sus derechos.

“Ninguna máquina debe ser considerada ni siquiera como portadora potencial de ningún derecho”, dice Smith.

“Incluso las máquinas más avanzadas siguen siendo y seguirán siendo máquinas. Este no es un ser vivo. Este no es un organismo vivo. Una máquina siempre será solo un conjunto de programas, un conjunto de código, ya sea creado por un ser humano o por otra computadora, o incluso programado de forma independiente.

En su opinión, solo las personas y los recursos humanos deben considerarse como individuos.

“Tenemos responsabilidades con los animales que sufren injustamente, pero tampoco ellos nunca deben ser vistos como alguien”, señala Smith.

Aquí deberíamos hacer un pequeño comentario y recordar al lector de habla rusa que en Occidente los animales se consideran objetos inanimados. Por lo tanto, a menudo puede encontrar el pronombre "eso" (es decir, "eso"), y no "ella" o "él" (es decir, "ella" o "él") cuando se trata de este o aquel animal. Esta regla generalmente se ignora solo en relación con las mascotas (perros, gatos e incluso loros) en las que los hogares ven a miembros completos y completos de sus familias. Sin embargo, Smith señala que el concepto de un animal como una "propiedad privada razonable" ya es un identificador valioso, ya que "nos hace responsables de usarlo de una manera que no lo lastime. Al final, "patear al perro" y "patear el refrigerador" son dos grandes diferencias ".

Un punto obviamente controvertido en el análisis de Smith es la suposición de que los seres humanos o los organismos biológicos tienen ciertas "características" que una máquina nunca puede adquirir. En eras anteriores, estas características pasadas por alto eran el alma, el espíritu o alguna fuerza vital sobrenatural intangible. La teoría del vitalismo postula que los procesos en los organismos biológicos dependen de esta fuerza y no pueden explicarse en términos de física, química o bioquímica. Sin embargo, rápidamente perdió su relevancia bajo la presión de los practicantes y lógicos, que no están acostumbrados a conectar el trabajo de nuestro cerebro con algunas fuerzas sobrenaturales. Y, sin embargo, la opinión de que una máquina nunca puede pensar y sentir como lo hace la gente sigue firmemente arraigada en la mente de incluso entre los científicos, lo que sólo refleja una vez más el hecho deque la comprensión de los fundamentos biológicos de la autoconciencia en las personas aún está lejos de ser ideal y muy limitada.

Lori Marino, profesora principal de neurociencia y biología del comportamiento (etología) en el Centro de Ética Emory, dice que es probable que las máquinas nunca obtengan ningún derecho, y mucho menos derechos a nivel humano. La razón de esto son los hallazgos de neurocientíficos como Antonio Damasio, quien cree que la conciencia estará determinada solo por si el sujeto tiene un sistema nervioso con canales que transmiten iones excitados, o, como dice la propia Marino, iones cargados positivamente que atraviesan las membranas celulares en su interior. sistema nervioso.

“Este tipo de transmisión neuronal se encuentra incluso en los organismos vivos más simples: prostitutas y bacterias. Y este es el mismo mecanismo que inició el desarrollo de las neuronas, luego el sistema nervioso y luego el cerebro”, dice Marino.

“Si hablamos de robots e IA, entonces al menos su generación actual obedece al movimiento de iones cargados negativamente. Es decir, estamos hablando de dos mecanismos del ser completamente distintos”.

Si sigues esta lógica, Marino quiere decir que incluso una medusa tendrá más sentimientos que cualquiera de los robots más complejos de la historia.

"No sé si esta hipótesis es correcta o no, pero definitivamente es un tema que debe tenerse en cuenta", dice Marino.

“Además, la curiosidad simplemente juega en mí, esforzándome por descubrir cómo exactamente un 'organismo vivo' puede diferir de una máquina realmente compleja. Pero aún así, creo que la protección legal debe proporcionarse en primer lugar a los animales, y solo entonces debe considerarse la probabilidad de su provisión para los objetos, que, por supuesto, los robots son, desde mi punto de vista.

David Chalmers, director del Centro para el Estudio de la Mente, el Cerebro y la Conciencia de la Universidad de Nueva York, dice que es muy difícil sacar conclusiones precisas sobre toda esta teoría. Principalmente debido al hecho de que en el estado actual todas estas ideas aún no están generalizadas y, por lo tanto, van mucho más allá del alcance de la evidencia.

“Por el momento no hay razón para creer que algún tipo especial de procesamiento de información en los canales iónicos deba determinar la presencia o ausencia de conciencia. Incluso si este tipo de procesamiento fuera esencial, no tendríamos ninguna razón para creer que requiere alguna biología especial y no algún patrón común de procesamiento de información que conocemos. Y si es así, entonces, en este caso, la simulación del procesamiento de información por una computadora podría considerarse como conciencia.

norte

Otro científico que cree que la conciencia no es un proceso computacional es Stuart Hameroff, profesor de anestesiología y psicología en la Universidad de Arizona. En su opinión, la conciencia es un fenómeno fundamental del Universo y es inherente a todos los seres vivos e inanimados. Pero al mismo tiempo, la conciencia humana es muy superior a la conciencia de los animales, las plantas y los objetos inanimados. Hameroff es un partidario de la teoría del panpsiquismo, que considera la animación general de la naturaleza. Entonces, siguiendo sus pensamientos, el único cerebro que es propenso a una evaluación subjetiva e introspección reales es el que consiste en materia biológica.

La idea de Hameroff suena interesante, pero también se encuentra fuera de la corriente principal de la opinión científica. Es cierto que todavía no sabemos cómo aparece la conciencia y la autoconciencia en nuestro cerebro. Solo sabemos que es así. Por tanto, ¿es posible considerarlo como un proceso sujeto a las reglas generales de la física? Tal vez. Según el mismo Marino, la conciencia no se puede reproducir en un flujo de "ceros" y "unos", pero esto no significa que no podamos desviarnos del paradigma generalmente aceptado conocido como arquitectura de von Neumann y crear un sistema híbrido de IA en el que la conciencia artificial se creará con la participación de componentes biológicos.

Biopod de la película "Existence"
Biopod de la película "Existence"

Biopod de la película "Existence"

Ed Boyden, neurocientífico del Synthetic Neurobiology Group y profesor principal del MIT Media Lab, dice que somos demasiado jóvenes como especie para hacer preguntas como esta.

"No creo que tengamos una definición funcional de conciencia que pueda usarse directamente para medirla o crearla artificialmente", dijo Boyden.

“Desde un punto de vista técnico, ni siquiera se puede saber si estoy consciente. Por lo tanto, en este momento es muy difícil incluso adivinar si las máquinas podrán encontrarlo.

Boyden todavía no cree que nunca seremos capaces de recrear la conciencia en un caparazón alternativo (por ejemplo, en una computadora), pero admite que en este momento hay desacuerdo entre los científicos sobre qué será exactamente importante para crear tal emulación de la mente digital.

“Necesitamos trabajar mucho más para comprender cuál es exactamente el vínculo clave”, dice Boyden.

Chalmers, a su vez, nos recuerda que ni siquiera hemos descubierto cómo se despierta la conciencia en un cerebro vivo, entonces, ¿qué podemos decir sobre las máquinas? Al mismo tiempo, cree que todavía no tenemos ninguna razón para creer que las máquinas biológicas pueden tener conciencia, mientras que las sintéticas no.

“Una vez que entendemos cómo surge la conciencia en el cerebro, podemos comprender cuántas máquinas podrán tener esta conciencia”, comenta Chalmers.

Ben Herzel, director de Hanson Robotics y fundador de la OpenCog Foundation, dice que ya tenemos teorías y modelos interesantes sobre cómo se manifiesta la conciencia en el cerebro, pero ninguna de ellas llega a un denominador común y no revela todos los detalles.

“Esta es todavía una pregunta abierta, cuya respuesta se esconde detrás de unas pocas opiniones diferentes. El problema también está relacionado con el hecho de que muchos científicos se adhieren a diferentes enfoques filosóficos para describir la conciencia, aunque están de acuerdo con hechos científicos y teorías basadas en observaciones científicas del trabajo del cerebro y las computadoras.

¿Cómo podemos determinar la conciencia de una máquina?

El surgimiento de la conciencia en una máquina es solo una cuestión. No menos difícil es la cuestión de cómo podemos detectar exactamente la conciencia en un robot o IA. Científicos como Alan Turing estudiaron este problema durante décadas, y finalmente llegaron a pruebas de lenguaje para determinar si un encuestado estaba consciente. Oh, si tan solo fuera así de simple. La conclusión es que los chatbots avanzados (programas para comunicarse con la gente) ya pueden rodear a las personas que comienzan a creer que hay una persona viva frente a ellos, no una máquina. En otras palabras, necesitamos una forma de verificación más eficaz y convincente.

“La definición de individualidad en la inteligencia artificial se complica por el problema del 'zombi filosófico'. En otras palabras, puedes crear una máquina que será muy, muy buena imitando la comunicación humana, pero al mismo tiempo no tendrá su propia identidad y conciencia”, dice Hughes.

Los dos altavoces inteligentes de Google Home están haciendo una pequeña charla
Los dos altavoces inteligentes de Google Home están haciendo una pequeña charla

Los dos altavoces inteligentes de Google Home están haciendo una pequeña charla

Recientemente, fuimos testigos de un gran ejemplo de esto, cuando un par de parlantes inteligentes de Google Home hablaron entre sí. Todo esto fue filmado y transmitido en vivo. A pesar de que el nivel de autoconciencia de ambos hablantes no era más alto que un ladrillo, la naturaleza misma de la conversación, que se volvió cada vez más intensa con el tiempo, se asemejaba a la comunicación de dos seres humanoides. Y esto, a su vez, demuestra una vez más que el problema de la diferencia entre humanos e IA solo se volverá más complicado y agudo con el tiempo.

Una solución, según Hughes, no es solo probar el comportamiento de los sistemas de IA en pruebas como la prueba de Turing, sino también analizar toda la complejidad interna de este sistema, como sugiere la teoría de Giulio Tononi. En esta teoría, la conciencia se entiende como información integrada (F). Este último, a su vez, se define como la cantidad de información creada por un complejo de elementos, que es mayor que la suma de información creada por elementos individuales. Si la teoría de Tononi es correcta, entonces podemos usar F no solo para determinar el comportamiento humano del sistema, también podemos averiguar si es lo suficientemente complejo como para tener nuestra propia experiencia interna consciente similar a la humana. Al mismo tiempo, la teoría indica que incluso con un comportamiento diferente, no similar al humano, así como una forma de pensar diferente,el sistema puede considerarse consciente si el complejo de su información integrada es capaz de pasar los controles necesarios.

“Aceptar que tanto los sistemas de bolsa como los sistemas de seguridad computarizados pueden tener conciencia sería un gran paso hacia el antropocentrismo, incluso si estos sistemas no exhiben dolor y autoconciencia. Esto realmente nos abrirá el camino para formar y discutir cuestiones de normas éticas posthumanas.

Otra posible solución podría ser el descubrimiento de correlatos neuronales de la conciencia en las máquinas. Es decir, estamos hablando de determinar aquellas partes de la máquina que se encargan de la formación de la conciencia. Si la máquina tiene tales partes y se comporta exactamente como se esperaba, entonces realmente podemos evaluar el nivel de conciencia.

¿Qué derechos debemos otorgar a las máquinas?

Un día, el robot mirará a una persona a la cara y exigirá derechos humanos. ¿Pero los merecerá? Como se mencionó anteriormente, frente a nosotros en este momento puede haber un "zombi" común, comportándose como fue programado y tratando de engañarnos para obtener algunos privilegios. En este punto, debemos tener mucho cuidado de no caer en la trampa y potenciar la máquina inconsciente. Una vez que averigüemos cómo medir la mente de una máquina y aprendamos a evaluar los niveles de su conciencia y autoconciencia, solo entonces podremos comenzar a hablar sobre la posibilidad de considerar la cuestión de si el agente que está frente a nosotros merece ciertos derechos y protección o no.

Afortunadamente para nosotros, este momento no llegará pronto. En primer lugar, los desarrolladores de inteligencia artificial necesitan crear un "cerebro digital básico" completando la emulación del sistema nervioso de gusanos, escarabajos, ratones, conejos, etc. Estas emulaciones de computadora pueden existir como avatares digitales y robots en el mundo real. Tan pronto como esto suceda, estas entidades inteligentes dejarán de ser objetos ordinarios de investigación y elevarán su estatus a sujetos con derecho a evaluación moral. Pero eso no significa que estas simples emulaciones automáticamente merezcan el equivalente a los derechos humanos. Más bien, la ley tendrá que defenderlos contra el abuso y el abuso (de la misma manera que los defensores de los derechos humanos protegen a los animales del abuso en experimentos de laboratorio).

En última instancia, ya sea mediante el modelado real hasta el más mínimo detalle, o mediante el deseo de descubrir cómo funciona nuestro cerebro desde un punto de vista computacional y algorítmico, pero la ciencia llegará a crear emulaciones informáticas del cerebro humano. En este momento, ya deberíamos poder determinar la presencia de conciencia en las máquinas. Al menos uno quisiera esperar que así fuera. Ni siquiera quiero pensar que podamos encontrar la manera de despertar una chispa de conciencia en el auto, pero al mismo tiempo, nosotros mismos no entenderemos lo que hemos hecho. Será una verdadera pesadilla.

Una vez que los robots y la IA obtengan estas habilidades básicas, nuestro protegido computarizado tendrá que pasar pruebas de personalidad. Todavía no tenemos una "receta" universal para la conciencia, pero el conjunto habitual de medidas, por regla general, se asocia con la evaluación del nivel mínimo de inteligencia, autocontrol, sentido del pasado y del futuro, empatía y la capacidad de manifestar libre albedrío.

“Si sus elecciones están predeterminadas para usted, entonces no puede asignar valor moral a decisiones que no son las suyas”, comenta MacDonald-Glenn.

Solo después de alcanzar este nivel de dificultad en la evaluación, una máquina será elegible para convertirse en candidata a los derechos humanos. Sin embargo, es importante comprender y aceptar el hecho de que los robots y la inteligencia artificial necesitarán al menos derechos de protección básicos si pasan las pruebas. Por ejemplo, el científico y futurista canadiense George Dvorsky cree que los robots y la inteligencia artificial merecerán el siguiente conjunto de derechos si pueden pasar la prueba de personalidad:

- El derecho a no desconectarse contra la propia voluntad;

- El derecho al acceso ilimitado y completo a su propio código digital;

- El derecho a proteger su código digital de influencias externas contra su voluntad;

- El derecho a copiarse (o no copiarse) a sí mismo;

- El derecho a la privacidad (es decir, el derecho a ocultar el estado psicológico actual).

En algunos casos, es posible que la máquina no pueda hacer valer sus derechos de forma independiente, por lo que es necesario prever la posibilidad de que las personas (así como otros ciudadanos que no son personas) puedan actuar como representantes de tales candidatos para individuos. Es importante comprender que un robot o IA no tiene que ser intelectual y moralmente perfecto para poder pasar una evaluación de personalidad y reclamar el equivalente a los derechos humanos. Es importante recordar que en estos aspectos las personas también están lejos de ser ideales, por lo que las mismas reglas se aplicarán de manera justa a las máquinas inteligentes. La inteligencia es generalmente algo difícil. El comportamiento humano es a menudo muy espontáneo, impredecible, caótico, inconsistente e irracional. Nuestros cerebros están lejos de ser ideales, por lo que debemos tener esto en cuenta a la hora de tomar decisiones sobre la IA.

Al mismo tiempo, una máquina consciente de sí misma, como cualquier ciudadano responsable y respetuoso de la ley, debe respetar las leyes, normas y reglas prescritas por la sociedad. Al menos si realmente quiere convertirse en una persona autónoma de pleno derecho y en parte de esta sociedad. Tomemos, por ejemplo, los niños o las personas con discapacidad mental. ¿Tienen derechos? Ciertamente. Pero somos responsables de sus acciones. Debería suceder lo mismo con los robots y la IA. Dependiendo de sus capacidades, deben ser responsables de sí mismos o tener un tutor que no solo pueda actuar como defensor de sus derechos, sino también asumir la responsabilidad de sus acciones.

Si ignora esta pregunta

Una vez que nuestras máquinas alcanzan un cierto nivel de complejidad, ya no podemos ignorarlas desde la perspectiva de la sociedad, las instituciones de poder y la ley. No tendremos ninguna razón de peso para negarles los derechos humanos. De lo contrario, equivaldrá a discriminación y esclavitud.

Crear un límite claro entre los seres biológicos y las máquinas parecerá una expresión clara de la superioridad humana y el chovinismo ideológico: las personas biológicas son especiales y solo importa la inteligencia biológica.

“Si consideramos nuestro deseo o falta de voluntad de expandir los límites de nuestra moralidad y la quintaesencia del concepto de individualidad, entonces la pregunta importante sonará así: ¿qué tipo de personas queremos ser? ¿Vamos a seguir la “regla de oro” en este asunto (haz con el resto como te gustaría que te trataran contigo) o ignoraremos nuestros valores morales?”Pregunta MacDonald-Glenn.

El empoderamiento de la IA será un precedente importante en la historia de la humanidad. Si podemos ver a la IA como individuos socialmente iguales, será un reflejo directo de nuestra cohesión social y un testimonio de nuestro apoyo al sentido de la justicia. Nuestra incapacidad para abordar este problema podría convertirse en una protesta social general y, tal vez, incluso en una confrontación entre la IA y los humanos. Y dado el potencial superior de la inteligencia artificial, esto podría ser un verdadero desastre para esta última.

También es importante darse cuenta de que el respeto por los derechos de los robots en el futuro también puede ser beneficioso para otras personas: cyborgs, personas transgénicas con ADN extraño, así como personas con cerebros copiados, digitalizados y cargados en supercomputadoras.

Todavía estamos muy lejos de crear una máquina que merezca los derechos humanos. Sin embargo, cuando se considera cuán complejo es el problema y qué es exactamente lo que está en juego, tanto para la inteligencia artificial como para los humanos, difícilmente se puede decir que planificar con anticipación sea redundante.

NIKOLAY KHIZHNYAK

Recomendado: