Los Científicos Han Dejado De Comprender Cómo Funciona La Inteligencia Artificial - Vista Alternativa

Los Científicos Han Dejado De Comprender Cómo Funciona La Inteligencia Artificial - Vista Alternativa
Los Científicos Han Dejado De Comprender Cómo Funciona La Inteligencia Artificial - Vista Alternativa

Vídeo: Los Científicos Han Dejado De Comprender Cómo Funciona La Inteligencia Artificial - Vista Alternativa

Vídeo: Los Científicos Han Dejado De Comprender Cómo Funciona La Inteligencia Artificial - Vista Alternativa
Vídeo: Inteligencia Artificial, en busca del beneficio para la humanidad 2024, Mayo
Anonim

Los científicos y programadores han dejado de comprender cómo la inteligencia artificial toma decisiones. Este problema fue anunciado por varios especialistas en la conferencia principal de IA, Neural Information Processing Systems, celebrada en Long Beach (California).

Los expertos entrevistados por Quartz dicen que deben actuar antes de que el sistema se vuelva demasiado complejo.

“No queremos dar por sentadas las decisiones de la IA sin comprender su lógica”, dice Jason Yosinski de Uber. "Para que la sociedad acepte los modelos de aprendizaje automático, necesitamos saber cómo llega la IA a ciertas conclusiones".

El problema que muchos expertos denominan “caja negra” es realmente grave. La experiencia previa ha demostrado que la IA tiende a tomar decisiones sesgadas y a establecer analogías donde no deberían. A medida que las redes neuronales se están infiltrando gradualmente en la aplicación de la ley, el sistema de salud, la investigación científica y los algoritmos que determinan lo que ves en tu feed de noticias de Facebook hoy, el error de IA puede ser muy costoso.

norte

Como ejemplo, Kiri Wagstaff, un experto en inteligencia artificial del Jet Propolusion Lab (NASA), cita una misión a Marte. Los dispositivos están ubicados a 200 millones de millas de la Tierra y cuestan cientos de millones de dólares, por lo que cualquier error en el trabajo de la IA es simplemente inaceptable.

“La gente necesita saber qué está haciendo la IA y por qué. De lo contrario, ¿cómo pueden confiar en él para controlar equipos costosos?”, Dice Wagstaff.

Por el momento, el científico está trabajando en un algoritmo que clasifica las imágenes tomadas por varias naves espaciales de la NASA. Dado que la cantidad de imágenes es de millones, la computadora le permite ordenar y resaltar las más interesantes sin perder una gran cantidad de tiempo en este proceso. Sin embargo, el problema radica en el hecho de que a menudo solo la IA sabe por qué ciertas imágenes que selecciona son inusuales.

Así, concluye Wagstaff, si hay un error dentro de este algoritmo, algún día puede perder información muy importante.

Video promocional:

“Básicamente, la computadora te da una imagen y te dice: 'Mira, esto es interesante'. Pero no siempre puedes entender por qué es interesante: debido al color, la forma de los objetos o su ubicación en el espacio, probablemente no lo sepas”, dice el científico.

Hannah Wallach, investigadora principal de Microsoft, está de acuerdo con las conclusiones de sus colegas.

“A medida que el aprendizaje automático se generaliza y aumentan las apuestas, ya no podemos ver estos sistemas como cajas negras. Necesitamos entender qué está pasando dentro de ellos y qué están haciendo”, dijo el investigador.

Afortunadamente, los científicos están tratando de encontrar métodos para comprender la lógica de la inteligencia artificial. Por lo tanto, el investigador de Google Mitra Raghu presentó un informe que describe el proceso de seguimiento de las acciones de las "neuronas" individuales de una red neuronal. Al analizar millones de operaciones, pudo averiguar cuál de las "neuronas" artificiales se centraba en conceptos erróneos y apagarlos. Esto demuestra que traducir el trabajo de las redes neuronales en una forma accesible al entendimiento humano no es una tarea tan imposible.

Otra opción para resolver el problema es probar periódicamente las habilidades desarrolladas por la inteligencia artificial.

“Es como si los maestros de escuela pidieran a los niños que vuelvan a contar con sus propias palabras lo que entendieron de la explicación del maestro”, dice Wagstaff.

Dicho esto, la importancia de comprender las partes internas del algoritmo no es solo para evitar que un rover hipotético se caiga de una roca marciana; Al darse cuenta de cuál es la falla, puede mejorar aún más los sistemas existentes.

"Si su sistema no funciona y no sabe por qué, entonces es muy difícil hacer algo al respecto", dice Yosinski. "Si sabes lo que pasó, entonces la situación siempre se puede corregir".

Materiales usados del sitio hightech.fm

Recomendado: