Fracaso De La Razón: Por Qué La Gente Deja De Creer En Los Hechos - Vista Alternativa

Fracaso De La Razón: Por Qué La Gente Deja De Creer En Los Hechos - Vista Alternativa
Fracaso De La Razón: Por Qué La Gente Deja De Creer En Los Hechos - Vista Alternativa

Vídeo: Fracaso De La Razón: Por Qué La Gente Deja De Creer En Los Hechos - Vista Alternativa

Vídeo: Fracaso De La Razón: Por Qué La Gente Deja De Creer En Los Hechos - Vista Alternativa
Vídeo: 5 Razones por las que la gente fracasa- Por qué la mayoría de personas fracasan en sus propósitos 2024, Abril
Anonim

La ciencia ha explicado cómo y por qué el cerebro humano se niega a aceptar la verdad. Entendido por la autora de The New Yorker Elizabeth Colbert.

En 1975, los científicos de Stanford invitaron a un grupo de estudiantes a participar en un estudio sobre el suicidio. A los participantes se les mostraron un par de notas de suicidio. En cada par, una nota era ficticia y la otra fue escrita por un suicidio real. Se pidió a los estudiantes que distinguieran entre billetes auténticos y falsos.

Algunos estudiantes han descubierto una habilidad genial en esta tarea. De veinticinco pares de notas, identificaron correctamente el real veinticuatro veces. Otros mostraron una total desesperanza, identificando una nota genuina en solo diez ocasiones.

Como suele ser el caso en la investigación psicológica, todo estaba organizado. Si bien la mitad de las notas eran auténticas, los resultados informados a los participantes eran falsos. Los estudiantes a los que se les dijo que casi siempre tenían la razón no dieron en realidad respuestas mucho más correctas que aquellos a quienes se les señaló constantemente los errores.

norte

En la segunda fase de la investigación, se reveló el engaño. A los estudiantes se les dijo que el verdadero propósito del experimento era determinar su reacción sobre si tenían razón o no. (Resultó que esto también era una trampa.) Finalmente, se pidió a los participantes que calificaran cuántas notas de suicidio clasificaron correctamente y cuántas respuestas correctas pensaban que podía dar el estudiante promedio. En ese momento sucedió algo curioso. Los estudiantes del grupo de “buenos resultados” se sentían seguros de que lo habían hecho lo suficientemente bien, significativamente mejor que el estudiante promedio, a pesar de que les acababan de decir que no había razón para creerlo. Por el contrario, aquellos inicialmente asignados al grupo de puntuación baja sintieron que les fue significativamente peor que el estudiante promedio, una conclusión que era igualmente infundada.

"Las impresiones, una vez formadas, permanecen notablemente estables", señalan secamente los investigadores.

Unos años más tarde, se reclutó a un nuevo grupo de estudiantes de la Universidad de Stanford para un estudio similar. Los participantes recibieron una selección de información sobre un par de bomberos: la biografía de Frank K. y George H. Frank, entre otras cosas, informó que tenía una hija pequeña y le encantaba el buceo. George tenía un hijo pequeño y jugaba al golf. También contenía las respuestas de los hombres a la prueba de elección conservadora arriesgada. En una versión de los datos, Frank fue un bombero exitoso que, a juzgar por los resultados de las pruebas, casi siempre eligió la opción más segura. En otra versión, Frank también prefirió la opción más segura, pero fue considerado un bombero inútil que recibió reprimendas de sus superiores más de una vez.

Una vez más, en medio del estudio, se les dijo a los estudiantes que habían sido engañados y que la información que recibían era completamente falsa. Luego se les pidió que describieran sus propias creencias. ¿Qué creen que debería tener un bombero exitoso sobre el riesgo? Los estudiantes del primer grupo sintieron que debía evitar el riesgo. Los estudiantes del segundo grupo decidieron que, por el contrario, debía tomar decisiones arriesgadas.

Video promocional:

Incluso después de la evidencia "sus creencias han sido completamente refutadas, la gente se niega a reconsiderarlas", señalan los investigadores. En este caso, el rechazo fue "particularmente impresionante" ya que los datos brutos eran insuficientes para sacar una conclusión general.

Estos estudios son ahora bien conocidos. La afirmación de un grupo de científicos de que los humanos no pueden pensar con cordura en la década de 1970 fue impactante. Ya no. Miles de experimentos posteriores han confirmado (y refinado) esta conclusión. Cualquier estudiante puede demostrar que las personas aparentemente razonables a menudo se comportan de una manera completamente irracional. Sin embargo, queda una pregunta seria: ¿cómo llegamos allí?

En el nuevo libro, The Enigma of Reason, los científicos cognitivos Hugo Mercier y Dan Sperber intentaron responder a esta pregunta. Señalan que la mente es un rasgo en evolución, como la postura erguida o la visión tricolor. Se originó en las sabanas de África y debe verse en este contexto.

Según los científicos, la mayor ventaja que tienen los humanos sobre otras especies es nuestra capacidad para cooperar. Es difícil de organizar y casi tan difícil de mantener. Para cualquier persona, usar otro es siempre la mejor actividad. No se nos da la razón para resolver problemas lógicos abstractos o para ayudarnos a sacar conclusiones de datos desconocidos; más bien, se da para resolver problemas que surgen durante la vida en equipo.

“La razón es una adaptación a un nicho hipersocial que la humanidad desarrolla por sí misma”, escriben Mercier y Sperber. Las tendencias razonables que parecen extrañas, tontas o simplemente estúpidas desde un punto de vista "intelectual" se ven muy equilibradas cuando se ven desde un punto de vista social, "interaccionista".

Considere el sesgo de confirmación: la tendencia de una persona a aceptar información que confirma sus creencias y rechazar la información que las contradice. De las muchas formas de pensamiento erróneo que se han descubierto, esta es la mejor estudiada, con un montón de investigación dedicada a ella. Uno de los experimentos más famosos se llevó a cabo nuevamente en Stanford. Los investigadores reunieron a un grupo de estudiantes que tenían puntos de vista opuestos sobre la pena de muerte. La mitad de los estudiantes estaban a favor y creían que ella evitaba el crimen; la otra mitad estaba en contra, creyendo que no tenía ningún efecto en la tasa de criminalidad.

Se pidió a los estudiantes que estudiaran dos estudios. Uno apoyó el argumento de que la pena de muerte disuadió a otras personas de cometer delitos, mientras que el otro desafió esta lógica. Los estudiantes que inicialmente apoyaron la pena de muerte calificaron altamente los datos de restricción y el segundo estudio no fue convincente. Los estudiantes que inicialmente se opusieron a la pena de muerte hicieron lo contrario. Al final del experimento, se volvió a preguntar a los participantes sobre sus puntos de vista. Los que empezaron a favor de la pena capital la apoyaron aún más, mientras que los que se opusieron fueron aún más hostiles.

Mercier y Sperber prefieren el término "sesgo de mi lado". Creen que la gente no confía en cualquiera. Cuando nos enfrentamos a los argumentos de alguien, encontramos con mucha habilidad sus debilidades. Y en relación con los nuestros somos ciegos.

Un experimento reciente llevado a cabo por Mercier en colaboración con colegas europeos demuestra claramente esta asimetría. Los participantes tuvieron que resolver una serie de problemas lógicos simples. Luego se les pidió que explicaran sus respuestas y se les dio la oportunidad de cambiarlas si notaban errores. La mayoría de los participantes estaban satisfechos con su elección inicial, solo menos del 15% cambió de opinión en el segundo paso.

En la tercera etapa, se mostró a los participantes uno de estos problemas, junto con su respuesta y la respuesta de otro participante que llegó a una conclusión diferente. Una vez más, pudieron cambiar sus respuestas. Pero se hizo un truco: las respuestas presentadas como si alguien más las hubiera dado fueran de hecho las suyas, y viceversa. Aproximadamente la mitad de los participantes entendieron lo que estaba sucediendo. Otros de repente se volvieron mucho más críticos. Casi el 60% rechazó las respuestas con las que había estado satisfecho anteriormente.

Este sesgo, según Mercier y Sperber, refleja la tarea de hacer evolucionar la mente para prevenir problemas con otros miembros del grupo. Al vivir en pequeños grupos de cazadores-recolectores, nuestros antepasados se preocuparon principalmente por su situación social. No querían ser los que arriesgaban sus vidas cazando mientras otros deambulaban por la cueva. Hubo poca ventaja de sentido común, pero se podría lograr mucho con argumentos decisivos.

norte

Entre otras cosas, nuestros antepasados no tenían que preocuparse por el efecto disuasorio de la pena de muerte y las cualidades ideales de los bomberos. Tampoco tuvieron que lidiar con investigaciones inventadas, noticias falsas o Twitter. No es sorprendente que hoy en día la razón nos falle a menudo. Como escriben Mercier y Sperber, "Este es uno de los muchos casos en los que el entorno ha cambiado demasiado rápido para la selección natural".

El profesor Stephen Sloman de la Universidad de Brown y el profesor Philip Fernbach de la Universidad de Colorado también son científicos cognitivos. Ellos también creen que la sociabilidad es la clave de las funciones, o quizás más apropiadamente, disfunciones de la mente humana. Empiezan su libro, La ilusión del conocimiento: por qué nunca pensamos solos, examinando el inodoro.

En un estudio de la Universidad de Yale, se pidió a los estudiantes que calificaran su comprensión de los dispositivos cotidianos, incluidos los inodoros, las cremalleras y las cerraduras de cilindro. Luego se les pidió que escribieran una explicación detallada paso a paso de cómo funcionan estos dispositivos y que evaluaran nuevamente su propia comprensión. Aparentemente, en el proceso, los estudiantes se dieron cuenta de su propia ignorancia, porque su autoestima cayó. (Resulta que los inodoros son mucho más complicados de lo que parecen).

Broken y Fernbach ven este efecto, al que llaman la "ilusión del aprendizaje profundo", en casi todas partes. La gente cree que sabe mucho más de lo que realmente sabe. Otras personas nos permiten creer esto. En el caso del inodoro, alguien lo diseñó para que yo pudiera manejarlo fácilmente. Esto es en lo que la gente se ha destacado. Hemos estado confiando en el conocimiento de los demás desde que aprendimos a cazar juntos; este fue probablemente un evento clave en nuestra historia evolutiva. Trabajamos tan bien juntos, dicen Sloman y Fernbach, que apenas podemos decir dónde termina nuestra propia comprensión y dónde comienza la de otra persona.

"Una de las consecuencias de la naturalidad con la que compartimos el trabajo mental", escriben, "es la ausencia de un límite definido entre las ideas y el conocimiento de una persona y otros miembros del grupo".

Esta ilimitación o confusión, por así decirlo, también es importante en lo que consideramos progreso. La gente, al inventar nuevas herramientas para una nueva forma de vida, creaba simultáneamente nuevos reinos de ignorancia. Si todos insistieran, digamos, en dominar los principios del trabajo de los metales antes de fabricar un cuchillo, la Edad del Bronce no sería una revolución.

Según Sloman y Fernbach, esto plantea serios problemas políticos. Una cosa es usar el baño sin saber cómo funciona, y otra es defender (u oponerse) a una prohibición de inmigración sin saber de qué estás hablando. Sloman y Fernbach citan una investigación de 2014 poco después de que Rusia anexara Crimea. Se preguntó a los encuestados cómo, en su opinión, debería reaccionar Estados Unidos y si podían identificar a Ucrania en el mapa. Cuanto peor sabían los encuestados sobre geografía, más se pronunciaban a favor de la intervención militar. (Los participantes tenían una idea tan pobre de dónde estaba ubicada Ucrania que la mediana de las suposiciones se extendía a mil ochocientas millas, la distancia aproximada de Kiev a Madrid).

Sloman y Fernbach llevaron a cabo su propia versión del “experimento del inodoro”, reemplazando los electrodomésticos con la política del gobierno. En un estudio de 2012, preguntaron a las personas si necesitaban un sistema de pago único para la atención médica o un sistema de pago a maestros basado en el mérito. Se pidió a los participantes que calificaran sus posiciones de acuerdo con su grado de acuerdo o desacuerdo con las propuestas. Luego se les pidió que explicaran, con el mayor detalle posible, las implicaciones de implementar cada decisión. En este punto, la mayoría de la gente empezó a tener problemas. Al reevaluar sus puntos de vista, los participantes fueron menos enfáticos en estar de acuerdo o en desacuerdo.

Broken y Fernbach ven el resultado como una luz parpadeante al final del túnel. Si nosotros, o nuestros amigos, dedicamos menos tiempo a predicar y tratamos de comprender mejor las implicaciones de las propuestas políticas, veremos cuán ignorantes somos y podremos moderar nuestros puntos de vista. Esto, escriben, "puede ser la única forma de pensar que destruirá la ilusión del conocimiento profundo y cambiará las actitudes de las personas en la vida".

Existe una opinión que considera la ciencia como un sistema que corrige las inclinaciones naturales de las personas. No hay lugar para el sesgo personal en un laboratorio bien dirigido; los resultados deben ser reproducibles en otros laboratorios, por investigadores que no tengan motivos para confirmarlos. Y es por eso que este sistema ha demostrado ser tan exitoso. En cualquier momento puede atascarse en intrigas, pero al final prevalecerá la metodología. La ciencia avanza incluso cuando estamos estancados.

En Denial to the Grave: Por qué ignoramos los hechos que nos salvarán, el psiquiatra Jack Gorman y su hija, Sarah Gorman, una profesional de salud pública, exploran la brecha entre lo que dice la ciencia y nuestras creencias. Apelan a una creencia persistente, que no solo es manifiestamente falsa sino potencialmente mortal, de que las vacunas son peligrosas. Lo peligroso es no vacunarse; por eso se crearon las vacunas. "La inmunización es uno de los triunfos de la medicina moderna", escriben los Gorman. Pero no importa cuántas investigaciones científicas afirmen que las vacunas son seguras y que no existe un vínculo entre el autismo y las vacunas, los usuarios en contra de las vacunas se mantienen firmes. (Incluso pueden llamar a su partidario, de alguna manera, Donald Trump, quien afirmó que aunque su hijo Barron fue vacunado, no fue en el horario previsto.recomendado por pediatras.)

Los Gorman también argumentan que las formas de pensar que ahora parecen ser autodestructivas pueden ser en algún momento un método de adaptación. También dedican muchas páginas al "sesgo de confirmación" que creen que tiene un componente fisiológico. Citan investigaciones que sugieren que las personas experimentan un verdadero placer, una fiebre de dopamina, cuando procesan información que respalda sus creencias. "Siempre es bueno doblar nuestra línea, incluso si nos equivocamos", dicen.

Los gormans no solo enumeran los delirios de las personas; quieren arreglarlos. Argumentan que debe haber alguna forma de convencer a la gente de los beneficios de las vacunas para los niños y de los peligros de las armas. (Otra creencia común, pero estadísticamente infundada, que están tratando de refutar es que la posesión de armas te mantiene a salvo). Pero aquí se encuentran con los mismos problemas. Proporcionar información precisa no parece ayudar. Apelar a las emociones puede funcionar mejor, pero va en contra del objetivo de promover la ciencia pura. "El problema permanece", escriben al final de su libro, "cómo lidiar con las tendencias que llevan a conceptos científicos erróneos".

El acertijo de la mente, la ilusión del conocimiento y la negación a la tumba se escribieron antes de las elecciones de noviembre. Sin embargo, anticiparon la era de Kellianne Conway y el amanecer de los "hechos alternativos". Los defensores de la racionalidad pueden encontrar una solución. Pero la literatura aún no es alentadora.

Recomendado: