¿La Inteligencia Artificial Es Siempre Objetiva Y Quiere Complacer A Una Persona? - Vista Alternativa

Tabla de contenido:

¿La Inteligencia Artificial Es Siempre Objetiva Y Quiere Complacer A Una Persona? - Vista Alternativa
¿La Inteligencia Artificial Es Siempre Objetiva Y Quiere Complacer A Una Persona? - Vista Alternativa

Vídeo: ¿La Inteligencia Artificial Es Siempre Objetiva Y Quiere Complacer A Una Persona? - Vista Alternativa

Vídeo: ¿La Inteligencia Artificial Es Siempre Objetiva Y Quiere Complacer A Una Persona? - Vista Alternativa
Vídeo: La IA débil viene fuerte ¿Por qué subestimamos los poderes de la IA que ya disfrutamos hoy? 2024, Mayo
Anonim

Cómo las computadoras toman decisiones extrañas

La inteligencia artificial se está desarrollando tan rápidamente que muchos comienzan a sentir ansiedad: si pronto podrá experimentar emociones y tomar sus propias decisiones. Ya sea un bot, un vehículo autónomo o un tomador de decisiones en los negocios y la ciencia: la inteligencia artificial está penetrando todas las áreas de nuestra vida y sociedad. Los cerebros de las máquinas se consideran lógicos, carentes de emociones e imparciales, pero la práctica demuestra que no siempre deciden todo con la mente abierta.

Image
Image

La inteligencia artificial es indispensable donde es importante reconocer patrones en grandes cantidades de datos y tomar decisiones en base a ellos. Pero en el futuro, los sistemas de inteligencia artificial también podrían usarse en áreas donde nuestro bienestar e incluso nuestras vidas dependen directamente de las conclusiones: en medicina, en la selección de trabajos, en la emisión de préstamos y en la justicia.

norte

¿Cuán objetiva y moralmente correcta toma una decisión la inteligencia artificial? ¿Podemos realmente confiar en el cerebro de la máquina para tomar decisiones tan importantes?

La inteligencia artificial se utiliza en todas las áreas

Incluso ahora, los algoritmos adaptativos se utilizan en muchas áreas de nuestra vida diaria. Hay asistentes digitales para comprender los comandos de voz y las preguntas. En Internet, los bots web ayudan a mantener y controlar los sitios web para que sean difíciles de distinguir de los humanos. Incluso cuando se detectan noticias falsas y manipulaciones de imágenes, los sistemas de inteligencia artificial están involucrados.

Video promocional:

Image
Image

Los sistemas de IA también hacen su trabajo en la industria, los negocios e incluso en el gobierno. Optimizan y controlan los procesos de producción, regulan la logística de los puertos de contenedores y grandes almacenes o mantienen registros contables. Las compañías de seguros y los bancos ya cuentan con los primeros programas inteligentes para verificar las solicitudes presentadas o tomar decisiones sobre pagos. En Ikea, Deutsche Telekom y muchas otras empresas, UNICEF o bibliotecas, los asistentes virtuales están involucrados en el servicio al cliente.

Gran cantidad de datos procesados para entrenamiento

Todo esto es posible gracias a la capacidad de los sistemas de IA para analizar rápidamente grandes cantidades de datos, para identificar patrones y correlaciones. Por ejemplo, el algoritmo aprende de innumerables fotos de mascotas con nombres coincidentes. Después de un período de entrenamiento, el sistema puede seleccionar fotografías completamente nuevas de la especie deseada. Reconoce las diferencias por sí solo.

Image
Image

Muchos otros sistemas de IA utilizan el texto como base para el aprendizaje. Evalúan el contexto en el que se encuentra una palabra y estudian su significado semántico, así como las relaciones con palabras o sinónimos similares. Estas relaciones semánticas traducen los programas en expresiones matemáticas y así aprenden incluso contextos semánticos complejos.

Solo gracias a esta capacidad la inteligencia artificial puede, por ejemplo, evaluar datos médicos y registros médicos e inferir características de cuadros clínicos a partir de ellos. Con base en estos resultados, los sistemas de IA ya se están utilizando como ayudas de diagnóstico, pueden reconocer varios tipos de cáncer, signos de la enfermedad de Alzheimer, condiciones suicidas y niveles peligrosos de azúcar en la diabetes.

Pero por muy atractivo que parezca, cada vez más IA tiene un gran inconveniente. Cuanto más penetra la inteligencia artificial en prácticamente todas las esferas de nuestra sociedad, mayores son las posibles consecuencias de sus decisiones. El futuro financiero o profesional de una persona, o incluso su vida, depende de su juicio.

norte

Soluciones de IA que pueden costar vidas

Por ejemplo, si una IA diagnostica erróneamente en medicina sin ser cuestionada, el paciente puede someterse al tratamiento incorrecto o incluso morir. El ejército usa un sistema de armas autónomo que toma decisiones equivocadas. Por ejemplo, la IA no puede distinguir a un amigo que huye de un enemigo, el inocente muere.

Image
Image

Los algoritmos de IA ya se están utilizando en los tribunales de Estados Unidos. Predicen la probabilidad de reincidencia de los infractores en los tribunales. Su valoración a menudo influye en la decisión del tribunal y, en consecuencia, en la sentencia del condenado.

Si AI decide sobre préstamos

Asimismo, una decisión en finanzas y seguros puede afectar si una persona obtiene un préstamo o no. Estos sistemas generalmente se entrenan usando bases de datos.

Image
Image

Y aquí la IA busca patrones: ¿qué personas suelen devolver sus préstamos y cuáles no? Desarrolla sus procedimientos de evaluación y toma las decisiones adecuadas. En particular, esto significa que las personas con un lugar de residencia u ocupación incorrectos no recibirán préstamos, sin importar cuánto estén dispuestos a pagar, a pesar de estas circunstancias.

Con tal distribución de responsabilidades con las computadoras, una persona solo será un asistente para la ejecución de decisiones de los cerebros cibernéticos. Y esto ya está sucediendo.

¿Quién es responsable de los errores?

Otro problema en el desarrollo de la IA: cuanto más complejos son los principios de la toma de decisiones, más difícil es para los humanos entenderlos. También plantea la cuestión de quién es responsable de los errores.

Los casos de accidentes al conducir automóviles en piloto automático se han vuelto más frecuentes: quién tiene la culpa de que algunas situaciones no se guarden en la memoria o que la IA saque conclusiones equivocadas. ¿O quizás saca sus propias conclusiones? Ya existen tales ejemplos.

Los robots de juego han desarrollado sus propias reglas durante el juego

Para este estudio, los investigadores permitieron que 100 robots inteligentes interactuaran entre sí en un juego de concesión. Cada uno debe decidir si dona algo a alguien de su equipo oa un participante del juego del exterior.

Image
Image

Sorprendentemente, con el tiempo, los bots se han vuelto cada vez más excluidos de grupos externos y solo donan a los miembros de su equipo.

Image
Image

La razón de esto: los robots inteligentes adaptaron su estrategia de juego, copiando el comportamiento de los compañeros que recaudaron más dinero y tuvieron más éxito. Por lo tanto, surgieron grupos de bots que se comportaron de la misma manera y excluyeron constantemente a los participantes del juego no relacionados. Al crear constantemente algo que calcula, analiza y toma decisiones más rápido que él, la humanidad algún día perderá el control sobre su creación, cuyas acciones no podrá seguir.

Según los científicos, esto es obvio: la inteligencia artificial no necesita datos artificiales para estar sesgada, basta con tener otras máquinas a su alrededor. Porque incluso esto puede crear una mente grupal conocida por las comunidades humanas. Por lo tanto, al usar la IA, las personas deben dejar la decisión a sí mismos.

Vasilik Svetlana

Recomendado: