La Inteligencia Artificial Ha Aprendido A Reconocer Las Emociones. ¿A Qué Puede Conducir Esto? - Vista Alternativa

Tabla de contenido:

La Inteligencia Artificial Ha Aprendido A Reconocer Las Emociones. ¿A Qué Puede Conducir Esto? - Vista Alternativa
La Inteligencia Artificial Ha Aprendido A Reconocer Las Emociones. ¿A Qué Puede Conducir Esto? - Vista Alternativa

Vídeo: La Inteligencia Artificial Ha Aprendido A Reconocer Las Emociones. ¿A Qué Puede Conducir Esto? - Vista Alternativa

Vídeo: La Inteligencia Artificial Ha Aprendido A Reconocer Las Emociones. ¿A Qué Puede Conducir Esto? - Vista Alternativa
Vídeo: "El impacto de las emociones en el aprendizaje" Sonia Fox y Josefina Peire 2024, Mayo
Anonim

El desarrollo de la inteligencia artificial en el siglo XXI avanza a pasos agigantados: uno de sus principales logros es la capacidad de reconocer las emociones humanas. En su informe anual sobre el desarrollo de la IA, el centro de investigación interdisciplinar que estudia las consecuencias sociales de AI Now, pidió la prohibición del uso de esta tecnología en determinados casos. Según los expertos, la habilidad de la IA en el campo del reconocimiento de emociones no debería aplicarse a decisiones que afecten la vida de las personas y la sociedad en su conjunto. ¿Por qué la capacidad de los robots para distinguir emociones puede cambiar significativamente la vida habitual de la humanidad?

La capacidad de los robots para reconocer las emociones humanas puede afectar negativamente a la sociedad moderna
La capacidad de los robots para reconocer las emociones humanas puede afectar negativamente a la sociedad moderna

La capacidad de los robots para reconocer las emociones humanas puede afectar negativamente a la sociedad moderna.

¿Puede un robot desarrollar un sentido de empatía?

norte

Los algoritmos de visión por computadora que son capaces de detectar ciertas emociones han existido en el planeta durante al menos un par de décadas. Esta tecnología se basa en la información obtenida como resultado del aprendizaje automático: algoritmos especiales que procesan datos para la mejor toma de decisiones. A pesar de todos los avances en robótica de hoy, la capacidad de reproducir esta habilidad verdaderamente humana sigue siendo bastante desafiante. Los expertos de Microsoft señalan que el reconocimiento de las emociones humanas utilizando computadoras tiene el potencial de crear una serie de aplicaciones de nueva generación; sin embargo, debido a las dificultades para identificarlas, la IA ha mostrado resultados erróneos durante mucho tiempo. Sin embargo, una nueva investigación muestraque la tecnología moderna ya está ayudando a las agencias de contratación a evaluar la productividad potencial de un futuro empleado en la etapa de la entrevista. Así, ya está en marcha el análisis de grabaciones en vídeo de entrevistas utilizando las últimas tecnologías, lo que permite a los directivos hacerse una mejor idea del estado emocional de sus subordinados.

El desarrollo de la inteligencia en la IA puede provocar una serie de problemas éticos y morales
El desarrollo de la inteligencia en la IA puede provocar una serie de problemas éticos y morales

El desarrollo de la inteligencia en la IA puede provocar una serie de problemas éticos y morales.

La facilidad de la monitorización continua por parte de la IA plantea muchos desafíos éticos. Actualmente, existen una gran cantidad de cuestiones relacionadas con la confidencialidad de la información personal que pueden provocar actitudes públicas negativas. Dadas estas consideraciones éticas, el uso de la inteligencia artificial en la vida cotidiana, si bien puede ayudar en el reclutamiento o en los procedimientos de imposición de sentencias penales, puede al mismo tiempo no ser confiable. Por ejemplo, si los sistemas aprenden sobre los prejuicios, los beneficios de la IA durante las entrevistas o en la sentencia se pueden minimizar.

En última instancia, los desarrolladores de tecnología y la sociedad en general deben vigilar de cerca cómo se introduce la información de los sistemas de IA en los procesos de toma de decisiones. Como cualquier otra forma de inteligencia, los sistemas artificiales pueden dar resultados incorrectos que pueden afectar negativamente la vida de un individuo o de una sociedad entera. Además, la IA moderna tiene importantes dificultades técnicas para leer ciertas emociones, por ejemplo, el nivel de confianza en uno mismo. Si las personas inclinadas a confiar en la inteligencia artificial toman decisiones basadas en la opinión errónea de la inteligencia artificial, la sociedad puede tener problemas muy grandes que solo se pueden prevenir diseñando cualidades como la equidad, la transparencia y la ética en estos sistemas. En otras palabras,Antes de que los sistemas inteligentes puedan aprender a reconocer correctamente las emociones, los científicos primero tendrán que trabajar duro para crear un código moral para la inteligencia artificial.

Video promocional:

Autor: Daria Eletskaya

Recomendado: