Por Qué Los Científicos No Deben Confiar En La Inteligencia Artificial Para El Descubrimiento Científico - Vista Alternativa

Por Qué Los Científicos No Deben Confiar En La Inteligencia Artificial Para El Descubrimiento Científico - Vista Alternativa
Por Qué Los Científicos No Deben Confiar En La Inteligencia Artificial Para El Descubrimiento Científico - Vista Alternativa

Vídeo: Por Qué Los Científicos No Deben Confiar En La Inteligencia Artificial Para El Descubrimiento Científico - Vista Alternativa

Vídeo: Por Qué Los Científicos No Deben Confiar En La Inteligencia Artificial Para El Descubrimiento Científico - Vista Alternativa
Vídeo: ¡Los científicos están recibiendo señales de un mundo extraterrestre! 2024, Mayo
Anonim

Vivimos en una época dorada de datos científicos, rodeados de vastas reservas de información genética, imágenes médicas y datos astronómicos. Las capacidades actuales de los algoritmos de aprendizaje automático permiten que la inteligencia artificial estudie estos datos con la misma rapidez y al mismo tiempo con mucho cuidado, lo que a menudo abre la puerta a nuevos descubrimientos científicos. Sin embargo, no debemos confiar ciegamente en los resultados de la investigación científica realizada por la IA, dice Genever Allen, investigador de la Universidad de Rice. Al menos no en el nivel actual de desarrollo de esta tecnología. Según el científico, el problema radica en el hecho de que los sistemas de IA modernos no tienen la capacidad de evaluar críticamente los resultados de su trabajo.

Según Allen, se puede confiar en que los sistemas de IA que utilizan métodos de aprendizaje automático, es decir, cuando el aprendizaje ocurre en el proceso de aplicar soluciones a muchos problemas similares, y no simplemente mediante la introducción y seguimiento de nuevas reglas y regulaciones, tomarán algunas decisiones. Más precisamente, es muy posible asignar tareas a la IA para resolver problemas en aquellas áreas donde el resultado final puede ser fácilmente verificado y analizado por la propia persona. Como ejemplo, podemos tomar, digamos, contar el número de cráteres en la luna o predecir las réplicas después de un terremoto.

Sin embargo, la precisión y eficiencia de algoritmos más complejos que se utilizan para analizar grandes cantidades de datos para encontrar y determinar factores previamente desconocidos o relaciones entre diferentes funciones "son mucho más difíciles de verificar", señala Allen. Por tanto, la imposibilidad de verificar los datos emparejados por dichos algoritmos puede llevar a conclusiones científicas erróneas.

Tomemos, por ejemplo, la medicina de precisión, donde los especialistas analizan los metadatos de los pacientes para encontrar grupos específicos de personas con características genéticas similares para desarrollar tratamientos efectivos. Algunos programas de IA diseñados para filtrar datos genéticos son efectivamente efectivos para identificar grupos de pacientes con una predisposición similar, por ejemplo, a desarrollar cáncer de mama. Sin embargo, resultan ser completamente ineficaces para identificar otros tipos de cáncer, por ejemplo, el colorrectal. Cada algoritmo analiza los datos de manera diferente, por lo que al combinar los resultados, a menudo puede haber un conflicto en la clasificación de la muestra de pacientes. Esto, a su vez, hace que los científicos se pregunten en qué IA confiar en última instancia.

norte

Estas contradicciones surgen debido a que los algoritmos para el análisis de datos están diseñados de tal manera que obedecen las instrucciones establecidas en estos algoritmos, lo que no deja lugar a la indecisión, la incertidumbre, explica Allen.

A los científicos no les gusta la incertidumbre. Sin embargo, los métodos tradicionales para determinar las incertidumbres de medición están diseñados para aquellos casos en los que se requiere analizar datos que han sido especialmente seleccionados para evaluar una hipótesis particular. No es así como funcionan los programas de inteligencia artificial para la minería de datos. Estos programas no están impulsados por ninguna idea guía y simplemente analizan conjuntos de datos recopilados sin ningún propósito específico en particular. Por lo tanto, muchos investigadores de IA, incluida la propia Allen, ahora están desarrollando nuevos protocolos que permitirán que los sistemas de IA de próxima generación evalúen la precisión y reproducibilidad de sus descubrimientos.

Video promocional:

El investigador explica que uno de los nuevos métodos de minería se basará en el concepto de remuestreo. Por ejemplo, si se supone que un sistema de inteligencia artificial debe hacer un descubrimiento importante, por ejemplo, identifica grupos de pacientes clínicamente importantes para la investigación, entonces este descubrimiento debería mostrarse en otras bases de datos. Es muy costoso para los científicos crear conjuntos de datos nuevos y grandes para validar el muestreo correcto de IA. Por lo tanto, según Allan, es posible utilizar un enfoque en el que "se utilizará un conjunto de datos existente, cuya información se mezclará aleatoriamente de tal manera que imite una base de datos completamente nueva". Y si una y otra vez la IA puede determinar los rasgos característicos que hacen posible realizar la clasificación necesaria, “entonces se podrá considerarque tienes un descubrimiento realmente real en tus manos”, agrega Allan.

Nikolay Khizhnyak

Recomendado: