La Gente No Confía En La Inteligencia Artificial. ¿Como Arreglarlo? - Vista Alternativa

Tabla de contenido:

La Gente No Confía En La Inteligencia Artificial. ¿Como Arreglarlo? - Vista Alternativa
La Gente No Confía En La Inteligencia Artificial. ¿Como Arreglarlo? - Vista Alternativa

Vídeo: La Gente No Confía En La Inteligencia Artificial. ¿Como Arreglarlo? - Vista Alternativa

Vídeo: La Gente No Confía En La Inteligencia Artificial. ¿Como Arreglarlo? - Vista Alternativa
Vídeo: Cita entre Will Smith y la robot Sophia 2024, Mayo
Anonim

La inteligencia artificial ya puede predecir el futuro. La policía lo usa para elaborar un mapa que muestra cuándo y dónde puede ocurrir un crimen. Los médicos lo usan para predecir cuándo un paciente podría sufrir un derrame cerebral o un ataque cardíaco. Los científicos incluso están tratando de darle imaginación a la IA para que pueda anticipar eventos inesperados.

Muchas decisiones en nuestra vida requieren buenas predicciones, y los agentes de IA casi siempre son mejores en ellas que los humanos. Sin embargo, a pesar de todos estos avances tecnológicos, todavía nos falta confianza en las predicciones que proporciona la inteligencia artificial. La gente no está acostumbrada a confiar en la IA y prefiere confiar en los expertos humanos, incluso si esos expertos están equivocados.

Image
Image

Si queremos que la inteligencia artificial beneficie a los humanos, debemos aprender a confiar en ella. Para hacer esto, necesitamos entender por qué las personas son tan persistentes en negarse a confiar en la IA.

norte

Confía en Dr. Robot

El intento de IBM de presentar un programa de supercomputación a los oncólogos (Watson for Oncology) fracasó. AI se ha comprometido a proporcionar recomendaciones de tratamiento de alta calidad para 12 cánceres, que representan el 80% de los casos en el mundo. Hasta la fecha, más de 14.000 pacientes han recibido recomendaciones basadas en sus cálculos.

Pero cuando los médicos se encontraron por primera vez con Watson, se encontraron en una situación bastante difícil. Por un lado, si Watson proporcionó pautas de tratamiento que coincidían con sus propias opiniones, la profesión médica no vio mucho valor en las recomendaciones de IA. La supercomputadora simplemente les estaba diciendo lo que ya sabían, y estas recomendaciones no cambiaron el tratamiento real. Esto puede haber dado a los médicos tranquilidad y confianza en sus propias decisiones. Pero IBM aún tiene que demostrar que Watson realmente aumenta las tasas de supervivencia al cáncer.

Video promocional:

Image
Image

Por otro lado, si Watson hizo recomendaciones que estaban en desacuerdo con la opinión de los expertos, los médicos concluyeron que Watson era incompetente. Y la máquina no pudo explicar por qué su tratamiento funcionaría porque sus algoritmos de aprendizaje automático eran demasiado complejos para que los humanos los entendieran. En consecuencia, esto llevó a una desconfianza aún mayor, y muchos médicos simplemente ignoraron las recomendaciones de AI, confiando en su propia experiencia.

Como resultado, el Socio Médico Jefe de IBM Watson, MD Anderson Cancer Center, anunció recientemente que cancelaría el programa. El hospital danés también dijo que estaba abandonando el programa después de descubrir que los oncólogos no estaban de acuerdo con Watson en dos de cada tres ocasiones.

El problema con la oncología de Watson era que los médicos simplemente no confiaban en él. La confianza de las personas a menudo depende de nuestra comprensión de cómo piensan otras personas y de nuestra propia experiencia, lo que genera confianza en sus opiniones. Esto crea una sensación psicológica de seguridad. La IA, por otro lado, es relativamente nueva e incomprensible para los humanos. Toma decisiones basadas en un sofisticado sistema de análisis para identificar posibles patrones ocultos y señales débiles que surgen de grandes cantidades de datos.

Incluso si se puede explicar en términos técnicos, el proceso de toma de decisiones de la IA suele ser demasiado complejo para que la mayoría de la gente lo entienda. Interactuar con algo que no entendemos puede causar ansiedad y crear una sensación de pérdida de control. Mucha gente simplemente no entiende cómo y con qué funciona la IA, porque ocurre en algún lugar detrás de la pantalla, en el fondo.

norte

Por la misma razón, son más conscientes de los casos en los que la IA está equivocada: piense en el algoritmo de Google que clasifica a las personas de color como gorilas; el chatbot de Microsoft que se convirtió en nazi en menos de un día; Vehículo Tesla en modo de piloto automático que resulta en un accidente fatal. Estos desafortunados ejemplos han recibido una atención de los medios desproporcionada, lo que destaca la agenda de que no podemos confiar en la tecnología. El aprendizaje automático no es 100% confiable, en parte porque los humanos lo diseñan.

¿Una división en la sociedad?

Los sentimientos que evoca la inteligencia artificial profundizan en la naturaleza del ser humano. Los científicos realizaron recientemente un experimento en el que encuestaron a personas que veían películas sobre inteligencia artificial (fantasía) sobre el tema de la automatización en la vida cotidiana. Resultó que, independientemente de si la IA fue retratada de manera positiva o negativa, el simple hecho de ver una representación cinematográfica de nuestro futuro tecnológico polariza las actitudes de los participantes. Los optimistas se vuelven aún más optimistas y los escépticos se acercan aún más.

Esto sugiere que las personas están sesgadas hacia la IA en función de su propio razonamiento, una tendencia profundamente arraigada de sesgo de confirmación: la tendencia a buscar o interpretar información de tal manera que confirme conceptos preexistentes. A medida que la IA aparece cada vez más en los medios, puede contribuir a profundas divisiones en la sociedad, una brecha entre quienes la utilizan y quienes la rechazan. Un grupo predominante de personas puede obtener una gran ventaja o una desventaja.

Tres formas de salir de la crisis de confianza de la IA

Afortunadamente, tenemos algunas ideas sobre cómo lidiar con la confianza en la IA. La experiencia con IA por sí sola puede mejorar drásticamente las actitudes de las personas hacia esta tecnología. También hay evidencia de que cuanto más a menudo usa ciertas tecnologías (como Internet), más confía en ellas.

Otra solución podría ser abrir la caja negra de los algoritmos de aprendizaje automático y hacer que funcionen de forma más transparente. Empresas como Google, Airbnb y Twitter ya están publicando informes de transparencia sobre investigaciones y divulgaciones gubernamentales. Este tipo de práctica en los sistemas de inteligencia artificial ayudará a las personas a obtener la comprensión necesaria de cómo los algoritmos toman decisiones.

La investigación muestra que involucrar a las personas en la toma de decisiones de la IA también aumentará la confianza y permitirá que la IA aprenda de la experiencia humana. El estudio encontró que las personas a las que se les dio la oportunidad de modificar ligeramente el algoritmo se sintieron más satisfechas con los resultados de su trabajo, probablemente debido a un sentido de superioridad y la capacidad de influir en los resultados futuros.

No necesitamos comprender el intrincado funcionamiento interno de los sistemas de IA, pero si les damos a las personas incluso un poco de información y control sobre cómo se implementan estos sistemas, tendrán más confianza y un deseo de adoptar la IA en su vida diaria.

Ilya Khel

Recomendado: