La IA Puede Cambiar Nuestras Vidas Para Siempre, Pero Actualmente Nos Encontramos En Un Camino Oscuro - Vista Alternativa

La IA Puede Cambiar Nuestras Vidas Para Siempre, Pero Actualmente Nos Encontramos En Un Camino Oscuro - Vista Alternativa
La IA Puede Cambiar Nuestras Vidas Para Siempre, Pero Actualmente Nos Encontramos En Un Camino Oscuro - Vista Alternativa

Vídeo: La IA Puede Cambiar Nuestras Vidas Para Siempre, Pero Actualmente Nos Encontramos En Un Camino Oscuro - Vista Alternativa

Vídeo: La IA Puede Cambiar Nuestras Vidas Para Siempre, Pero Actualmente Nos Encontramos En Un Camino Oscuro - Vista Alternativa
Vídeo: 🎥 TERAPIAS ALTERNATIVAS: EL LADO OCULTO (película completa) 2024, Mayo
Anonim

La inteligencia artificial (IA) ya está remodelando el mundo de manera visible. Los datos impulsan nuestro ecosistema digital global y las tecnologías de inteligencia artificial descubren patrones en los datos.

Los teléfonos inteligentes, los hogares inteligentes y las ciudades inteligentes están influyendo en la forma en que vivimos e interactuamos, y los sistemas de inteligencia artificial participan cada vez más en las decisiones de contratación, los diagnósticos médicos y la adjudicación. Si este escenario es utópico o distópico depende de nosotros.

Los riesgos potenciales de la IA se enumeran muchas veces. Los robots asesinos y el desempleo masivo son problemas comunes, mientras que algunas personas incluso temen la extinción. Las proyecciones más optimistas afirman que la IA agregará $ 15 billones a la economía global para 2030 y eventualmente nos llevará a algún tipo de nirvana social.

Sin duda, debemos considerar el impacto que estas tecnologías tienen en nuestras sociedades. Un problema importante es que los sistemas de inteligencia artificial refuerzan los prejuicios sociales existentes, con un efecto devastador.

norte

Varios ejemplos notorios de este fenómeno han recibido una atención generalizada: los sistemas modernos de traducción automática automatizada y los sistemas de reconocimiento de imágenes.

Estos problemas surgen porque dichos sistemas utilizan modelos matemáticos (como redes neuronales) para definir patrones en grandes conjuntos de datos de entrenamiento. Si estos datos se distorsionan severamente de varias formas, los errores inherentes serán inevitablemente estudiados y reproducidos por sistemas entrenados.

Las tecnologías autónomas sesgadas son problemáticas, ya que pueden aislar a grupos como las mujeres, las minorías étnicas o los ancianos, agravando así los desequilibrios sociales existentes.

Si los sistemas de inteligencia artificial se entrenan, por ejemplo, a partir de datos de arrestos policiales, entonces cualquier sesgo consciente o inconsciente manifestado en los esquemas de arresto existentes será duplicado por el sistema de inteligencia artificial de “previsión policial” entrenado a partir de estos datos.

Video promocional:

Reconociendo las serias implicaciones de esto, varias organizaciones de renombre han recomendado recientemente que todos los sistemas de inteligencia artificial sean entrenados en datos objetivos. Las directrices éticas publicadas a principios de 2019 por la Comisión Europea sugirieron la siguiente recomendación:

Cuando se recopilan datos, pueden contener errores construidos socialmente, inexactitudes. Esto debe abordarse antes de entrenar a la IA en cualquier conjunto de datos.

Todo esto suena bastante razonable. Desafortunadamente, a veces simplemente no es posible garantizar la imparcialidad de ciertos conjuntos de datos antes de la capacitación. Un ejemplo concreto debería aclarar esto.

Todos los sistemas modernos de traducción automática (como Google Translate) aprenden de pares de oraciones.

El sistema anglo-francés utiliza datos que vinculan oraciones en inglés ("she is tall") con oraciones equivalentes en francés ("elle est grande").

Podría haber 500 millones de pares de este tipo en un conjunto de datos de entrenamiento dado y, por lo tanto, solo mil millones de oraciones individuales. Todo sesgo de género debe eliminarse de este tipo de conjunto de datos si queremos evitar que se generen resultados como los siguientes en el sistema:

La traducción al francés se creó con Google Translate el 11 de octubre de 2019 y es incorrecta: "Ils" es un plural masculino en francés y aparece aquí a pesar de que el contexto indica claramente que se hace referencia en las mujeres.

norte

Este es un ejemplo clásico de un sistema automatizado que prefiere el estándar masculino predeterminado debido al sesgo en los datos de entrenamiento.

En general, el 70 por ciento de los pronombres genéricos en los conjuntos de datos de traducción son masculinos y el 30 por ciento son femeninos. Esto se debe al hecho de que los textos utilizados para tales fines se refieren con mayor frecuencia a hombres que a mujeres.

Para evitar que se repitan los errores existentes en el sistema de traducción, sería necesario excluir pares específicos de oraciones de los datos para que los pronombres masculinos y femeninos se encuentren en una proporción de 50/50 tanto en el lado inglés como en el francés. Esto evitará el sistema de asignar mayores probabilidades a los pronombres masculinos.

E incluso si el subconjunto resultante de los datos está completamente equilibrado por género, seguirá estando sesgado de varias maneras (por ejemplo, étnico o de edad). En verdad, sería difícil eliminar por completo todos estos errores.

Si una persona dedica solo cinco segundos a leer cada una de las mil millones de oraciones en los datos de entrenamiento de IA, tomará 159 años probarlas todas, y eso supone la voluntad de trabajar todo el día y la noche, sin pausas para el almuerzo.

¿Alternativa?

Por lo tanto, no es realista exigir que todos los conjuntos de datos de entrenamiento sean imparciales antes de construir los sistemas de IA. Estos requisitos de alto nivel generalmente asumen que "IA" denota un grupo homogéneo de modelos matemáticos y enfoques algorítmicos.

De hecho, diferentes tareas de IA requieren tipos de sistemas completamente diferentes. Y subestimar completamente esta diversidad enmascara los problemas reales asociados con, digamos, datos muy distorsionados. Esto es lamentable, ya que significa que se descuidan otras soluciones al problema del sesgo de datos.

Por ejemplo, los sesgos en un sistema de traducción automática entrenado pueden reducirse significativamente si el sistema se adapta después de haber sido entrenado en un conjunto de datos grande e inevitablemente sesgado.

Esto se puede hacer usando un conjunto de datos mucho más pequeño y menos confuso. Por lo tanto, la mayoría de los datos pueden estar muy sesgados, pero no es necesario un sistema capacitado. Desafortunadamente, estos métodos rara vez son discutidos por quienes desarrollan pautas y marcos legales para la investigación de la IA.

Si los sistemas de IA simplemente exacerban los desequilibrios sociales existentes, es más probable que desalienten que promuevan un cambio social positivo. Si las tecnologías de inteligencia artificial que utilizamos cada vez más a diario fueran mucho menos sesgadas que nosotros, podrían ayudarnos a reconocer y enfrentar nuestros propios prejuicios acechantes.

Por supuesto, esto es por lo que debemos luchar. Por lo tanto, los diseñadores de IA deben pensar mucho más detenidamente sobre las implicaciones sociales de los sistemas que crean, mientras que aquellos que escriben sobre IA deben comprender más profundamente cómo se diseñan y construyen realmente los sistemas de IA.

Porque si realmente nos acercamos a un idilio tecnológico oa un apocalipsis, lo primero sería preferible.

Victoria Vetrova

Recomendado: