Carla Montecinos

Una investigadora y académica me dijo durante una clase en mi primer año de doctorado: “No me importa si crees o no en los datos, me importa si te convencen, o no”.

La diferencia entre creer en algo y conocer algo es sutil, pero de suma importancia. Muchas veces confundimos nuestras creencias con verdades, repetimos esas creencias como mantras simplificados, casi como un anuncio publicitario que se propaga y terminamos perdiendo la esencia de los hechos.

Creer es un acto de fe, un acto de voluntad. Saber algo, cuestionarlo y que nos convenza, es buscar verdades. El lingüista estadounidense, Noam Chomsky, explica que nuestra ignorancia puede ser dividida en problemas y misterios. Los problemas pueden encontrar soluciones de algún tipo, mientras que los misterios, los verdaderos misterios, solo nos dejan la posibilidad de contemplarlos y esperar que se vuelvan un problema [1].

¿Por qué creemos lo que creemos?, ¿por qué lo hacemos?, ¿por qué hay veces que renunciamos gustosamente a la racionalidad?

Todos sabemos que realmente no hay problema en caminar bajo una escalera bien asegurada, que se nos cruce un gato negro, entregarle el salero a alguien directamente en la mano, sabemos que no nos va pasar nada. El rango es amplio, desde creer en la energía sanadora de las piedras y la homeopatía, pasando por terraplanismo, movimiento antivacunas, hasta elaboradas teorías conspirativas, como los “chemtrails” o que la llegada a la luna en 1969 fue una farsa cinematográfica dirigida por Stanley Kubrick.

En muchos casos, puede ser folclore, tradición, o casi una humorada. Sin embargo, detrás de esa lógica hay datos tales como que el 61% de los chilenos cree en el “mal de ojo” [2], una superstición muy incrustada en culturas tan distantes como el Medio Oriente y el sur de Chile. Algo tiene que haber en ello si culturas tan diferentes, que no tuvieron contacto directo, pensaron en lo mismo. Y es cierto, en ambas culturas hay un elemento fundamental en común, el ser humano.

Uno puede creer en lo que quiera. Esta columna no es una apología al ateísmo ni pretende imponer una mirada única de lo que desconocemos. Lo interesante de la ciencia, y por lo que la respeto tanto como disciplina, es que solo afirma lo que puede afirmar. Es maincluso éstas afirmaciones están disponibles a ser cuestionadas, con argumentos y evidencia. El resto, queda por ser estudiado, analizado y criticado, para, idealmente, tener una respuesta lo más confiable posible. Refraseando a Chomsky, el problema versus el misterio.

Entre octubre y noviembre de 2018 el Centro de Estudios Públicos (CEP), realizó una encuesta sobre Religión. Ésta incluye a 1.040 personas, todas mayores de edad y de toda la población del país (excluyendo Isla de Pascua) [1].

Para responder el por qué creemos lo que creemos, probablemente nos faltan años de estudio. Y pretender saber cómo funciona la mente humana, es arrogancia.

Desde la neurociencia, sabemos que la corteza prefrontal es fundamental en la toma de decisiones y cualidades consideradas típicamente humanas, como el raciocinio. Es de hecho, el área del cerebro que para muchos, nos diferencia de nuestros parientes simios más cercanos. Un estudio morfológico-conductual realizado con datos recolectados por cerca de 30 años, con pacientes humanos que sufrieron lesiones en distintas áreas de  la corteza prefrontal, muestra cómo la toma de decisiones y diferentes capacidades cognitivas se ven específicamente afectadas dependiendo de qué zona está lesionada[3].

Desde un punto de vista socio-cultural, todos, sin excepción, somos altamente influenciados por nuestro primer acercamiento a la sociedad; nuestra familia durante infancia. Las conversaciones de sobremesa, el tío radical, la abuela con una visión tradicional de la sociedad, padres censuradores, la hermana(o) contestataria(o), etc. Y es difícil liberarse de esa impronta.

A medida que maduramos, socializamos y nuestra visión de mundo crece, fuera de casa, en el colegio, la universidad, el trabajo, etc. Sin embargo, a pesar de que nuestras opiniones y creencias pueden cambiar, la mayoría de las veces no varían notoriamente, a lo largo de nuestra vida.

El ser humano no es un ser objetivo, y nunca lo será. Tenemos sesgos. Unos más que otros, pero todos tenemos sesgos de distintos tipo. Se llaman sesgos cognitivos en la toma de decisiones, a aquellos sesgos no aleatorios y por lo tanto predecibles, que se desvía de la racionalidad [4]. Esto llevo a que el Dan Ariely acuñara el término de que el Ser Humano es “previsiblemente irracional” en su libro titulado de la misma manera (Predictably Irrational: The Hidden Forces That Shape Our Decisions) [5], lectura absolutamente recomendada y Una TED talk de Dan Ariely.

Existen diversos tipos de sesgos cognitivos, algunos que parecen obvios y de sentido común como el efecto placebo, los estereotipos o el exceso de confianza en nuestros propios conocimientos (en perjuicio de lo que no conocemos sobre un tema).

Sin embargo, otros sesgos cognitivos son más difíciles de detectar, como por ejemplo el efecto de grupo que aumenta las probabilidades de adoptar una creencia que siga la de la mayoría. Está también el efecto avestruz, un tipo de sesgo cognitivo en el que se ignora información peligrosa o negativa, como si no afrontar el problema fuese lo mismo a que no esté (la ignorancia puede ser una bendición para muchos).

Otro sesgo muy interesante, es el de riesgo cero, los Seres Humanos preferimos la certeza y la seguridad, aunque sea contraproducente o que la probabilidad de ganancia sea considerablemente menor, es mejor tomar la opción segura. Así es como algunos de nosotros van a pagar dinero extra por tener la opción de devolver un pasaje de avión, que disminuye el riesgo a cero, a pesar de que no sea económicamente lo más rentable. En todo momento, tendemos a minimizar el riesgo. Y es justamente una estrategia muy utilizada en marketing.

Finalmente, un tipo de sesgo cognitivo que es cada vez más común en redes sociales y discusiones contingentes, es el tan recurrido sesgo de confirmación, según el cual tendemos a escuchar, leer, buscar e incluso recordar información que corrobora nuestras ideas preconcebidas.

La investigación científica es particularmente sensible al sesgo de confirmación. Y es que en general, tendemos a interpretar los datos desde la información que ya conocemos y probablemente en la cual somos expertos. Pero sin buscarlo, estamos obviando información que puede perfectamente dar una hipótesis alternativa. Así es como por ejemplo, ante una misma observación, dos equipos distintos pueden llegar a conclusiones completamente diferentes, basados en su expertise. Nadie está libre de sesgos.

Volviendo al comienzo de esta columna, ¿por qué creemos lo que creemos? en algunos casos ¿por qué adoptamos estos sesgos cognitivos?

La respuesta no es tan clara, pero en algunos casos es porque somos víctimas de la evolución, de nuestros instintos de supervivencia. Se asume que una persona que viste y se comporta de cierta manera puede ser un peligro, sesgo de prejuicio, porque el costo-beneficio de escapar rápidamente de un depredador es más favorable que no identificarlo como un peligro y morir.

Y en realidad, tiene sentido, pero lo importante es estar conscientes de nuestros sesgos y cuestionar nuestro actuar. En general, ya no funcionamos en la lógica de la presa-depredador y podemos darnos el lujo de pensar antes de actuar.

Atrevámonos a cuestionar libres, o al menos conscientes, de nuestros sesgos.

Referencias:

[1] Language in Focus. (A. Kashner, ed). Chapter: Problems and mysteries in the study of human language. (281-357). Noam Chomsky. (1976).

[2] https://www.cepchile.cl/cep/site/artic/20181218/asocfile/20181218093906/encuestacep_oct_nov2018_te_religion.pdf

[3] Lesion mapping of cognitive control and value-based decision making in the prefrontal cortex. Jan Gläscher, Ralph Adolphs, Hanna Damasio, Antoine Bechara, David Rudrauf, Matthew Calamia, Lynn K. Paul, and Daniel Tranel. Proceedings of the National Academy of Sciences of the United States of America. 2012 109 (36) 14681-14686.  https://www.pnas.org/content/109/36/14681

[4] Encyclopedia of Animal Cognition and Behavior. J.Vonk T.K. Shackelford (eds.).
Chapter C: Cognitive Bias by Fernando Blanco. (2017).

[5] Predictably Irrational: The Hidden Forces That Shape Our Decisions. Dan Ariely. Harper Collins Publishers. (2008).

Comenta con Facebook
Carla Montecinos
Magíster en Ciencias Biológicas. Candidata a doctora en Biología Celular y Molecular y en Neurociencias. Su investigación estudia los componentes moleculares, tanto fisiológicos como fisiopatológicos, en el sistema nervioso central. Escríbenos a contacto@chilecientífico.com