Psicología y pseudociencia

Publicado en Sinápticas.
Léelo completo en su sitio: https://sinapticas.com/2018/11/12/psicologia-y-pseudociencia/

©

Leandro Castelluccio

 

Introducción

A menudo se considera el nacimiento de la Psicología como ciencia a partir de 1879 con la creación del primer laboratorio de Psicología Experimental en Leipzig, Alemania, a cargo del fisiólogo, filósofo y psicólogo Wilhem Wundt. En este sentido, podríamos decir que la Psicología es una disciplina científica bastante joven si la comparamos con las ciencias “duras” como la Física, Química o Biología. A su vez, a diferencia de estas últimas ciencias, el estatus científico de la Psicología muchas veces suele ser cuestionado, sobre todo por no asemejarse a ciencias como la Física, donde las variables a investigar suelen ser mejor controladas en un marco experimental, siendo el comportamiento humano mucho más complejo de estudiar. Esto sumado al desarrollo e influencia de una multitud de prácticas y corrientes psicológicas de dudoso estatus científico, donde se entremezcla filosofía, espiritualidad, pseudociencia, y hasta a veces, ideologías políticas, ha hecho de la Psicología una disciplina que no siempre se la considera seria en sus afirmaciones. Al mismo tiempo converge una falta de actitud escéptica y una aceptación y defensa casi dogmática de ciertas prácticas y supuestas teorías, que hacen de la disciplina una muy particular en comparación con otras ciencias.

A pesar de esto, la Psicología es una disciplina científica con un cúmulo importantísimo de evidencia en múltiples ámbitos, la cuestión está en demarcar la parte científica de las corrientes pseudocientíficas.

Va más allá del alcance de este ensayo describir la totalidad de prácticas pseudocientíficas en Psicología, pero sí mencionaremos varios ejemplos.

¿Qué es la Ciencia?

Tal como afirmaba Carl Sagan, uno de los mayores promotores de la divulgación científica, la ciencia es más que un corpus de conocimientos, es una forma de pensar. Una forma de pensar que exige del investigador controlar los prejuicios y presuposiciones, observar y manipular cuidadosamente una enorme cantidad de datos, cuestionar las hipótesis, inducir conclusiones, no aceptarlas como verdades absolutas, todo dependiendo de lo que la evidencia contingente nos diga.

El método inductivo cumple un rol fundamental en la investigación empírica y sin embargo ha sido muy cuestionado en términos filosóficos como una base sólida para la verdad. Podemos decir “la manzana es una fruta y es dulce, la banana es una fruta y es dulce, la pera es una fruta y es dulce…todas las frutas son dulces”. El problema es que aun aceptando como válidas la observaciones de que la manzana, la banana o la pera son dulces, eso no significa por lógica que todas las frutas lo son, o incluso las propias frutas que se mencionan. Pese a ello la ciencia extrae generalidades de las observaciones, pasamos de una pequeña muestra a hacer aseveraciones que involucran a toda la población.

Sin embargo, esto no invalida a la ciencia en su búsqueda de la verdad. Consideremos que a parte de que lógicamente no podemos hacer el salto de afirmar con seguridad que “todas las frutas son dulces”, uno podría decir ante cualquier conclusión que debido a que puede haber un caso que no siga la regla, no podemos aceptar la conclusión como verdadera. Newton tuvo una respuesta brillante a ese problema cuando dijo: “No compongo ninguna hipótesis” (hipótesis en este sentido se refiere a cualquier afirmación que no se basa en evidencia empírica), lo que significa que cada afirmación que no se basa en la evidencia es irrelevante en la ciencia, sería absurdo, por lo tanto, cuestionar la relevancia de la inducción sobre la base de una entidad inexistente, o sea, de que puede haber un caso que no siga la regla, lo importante es que basamos nuestras afirmaciones en evidencia, y eso es lo que importa en la ciencia (Peikoff, 2012).

Pero aun más allá de este punto, debemos tener en cuenta que existe una importante asimetría entre probar y falsificar afirmaciones que declaran algo universal. Una cosa es probar que todas las frutas son dulces, para ello tenemos que experimentar con todo el universo de frutas y comprobar que cada una es dulce. Esto se hace muy difícil cuando tenemos poblaciones enormes. Sin embargo, comprobar que el limón es una fruta y es ácida implica que podemos rechazar o falsar la conclusión de que todas las frutas son dulces. Esto significa que para probar la conclusión necesitamos muchísimos casos, sin embargo, para falsarla, basta con sólo uno. Esto implica que en ciencia aprendemos mucho más de casos negativos que de casos positivos, y es esta capacidad de falsar una hipótesis o teoría, más que cualquier otra cosa, lo que le da su carácter científico, siguiendo a Popper. Según este autor, la ciencia nunca puede confirmar definitivamente una hipótesis, debido al problema que presenta verificar todos los casos posibles, como en el ejemplo anterior, pero lo que sí puede hacer es refutarla definitivamente mediante la deducción de una consecuencia observable de la hipótesis o teoría y mostrando que dicha consecuencia no se cumple. La refutación es así un razonamiento de tipo modus tollens (si p entonces q, no q entonces no p): la hipótesis p implica la consecuencia observable q, La consecuencia observable q no es el caso, por lo tanto, la hipótesis p tampoco es lo es. Esta asimetría denota la validez del modus tollens en comparación con la invalidez de los intentos de confirmar de una hipótesis, puesto que “p entonces q, y q, entonces p” es una falacia de afirmación del consecuente. Mientras las refutaciones tienen la forma de un argumento deductivamente válido, las confirmaciones tienen la forma de un argumento deductivamente inválido.

Si una teoría no es falsable, por más consistente que sea entre sus afirmaciones, no podemos catalogarla de científica. A pesar de esto, erróneamente se suele dar más importancia en la academia y en la publicación de artículos científicos (particularmente en Psicología) a estudios que muestran efectos positivos o significativos respecto a una hipótesis que aquellos que no muestran un efecto, el llamado “file drawer effect” en inglés. Sin embargo, visto lo anterior, debemos comprender que los casos negativos o donde falsamos una hipótesis son quizás hasta más importantes para el avance de la ciencia que los casos que prueban algo en particular. A su vez, en Psicología quizás más que en ningún otra disciplina las teorías no falsables abundan y distorsionan el estatus científico de otras corrientes psicológicas.

El estatus científico de las teorías psicológicas

Siguiendo los planteos anteriores, tenemos que el carácter empírico de una teoría aumenta con su grado de falsabilidad, y esto implica que la teoría es más útil, porque dice más respecto al mundo. Esto es así, puesto que cuanto más casos prohíbe una teoría mayor carácter predictivo tiene, la teoría se vuele así útil para aplicarla a la realidad mientras que en el caso contrario, donde una teoría permite todo suceso posible, en realidad no explica nada. Es por ello que la falsabilidad como criterio para evaluar una teoría científica es sumamente importante, y con esto respondemos una crítica común de ciertas pseudociencias, que afirman que si bien no se pueden probar sus teorías del todo, estas son útiles para interpretar la realidad y generar cambios, sencillamente esto no es así.

Supongamos que tenemos una teoría sobre el clima que predice que mañana a cierta hora va a llover, con un grado de confianza de más menos una hora. Si al día de mañana en ese lapso de tiempo no llueve y está soleado, habremos falsado la teoría, esta era incorrecta. Ahora, si los teóricos de la teoría dicen que eso no refuta la misma porque la teoría también predice que en ese lapso de tiempo puede a su vez estar soleado, o granizar, o haber niebla, etc., entonces la teoría no es realmente falsable, porque permite cualquier resultado, no hay nada que la refute, y con esto pierde a su vez el grado de utilidad, puesto que no predice nada respecto al mundo, ya que dice una cosa, pero luego sucede otra, o puede suceder cualquier cosa posible. La teoría termina así no diciendo nada certero sobre la realidad, por lo cual no podemos basarnos de ella para explicar el mundo. Esta es quizás la característica más importante de las pseudociencias. Pensemos en la multitud de personas que dicen predecir el futuro, observemos cuan a menudo sino es que siempre, la predicción resulta difusa y admite que una multitud de resultados puedan ocurrir. Esto es un aliado de la pseudociencia, puesto que si la predicción fuera precisa sería altamente falsable, lo cual refutaría la supuesta capacidad de predecir el futuro.

Es así que una corriente como el Psicoanálisis y sus distintas derivaciones, si bien pueden ser internamente coherentes en sus postulados, admiten cualquier resultado, y por ende no son falsables y útiles para explicar la realidad. Los psicoanalistas podrán dar una explicación detallada del comportamiento de una persona, pero no lo están explicando realmente, en el sentido de que pueden predecir que la persona incurra en un comportamiento A o B por X motivo, pero si incurre en C, rápidamente ajustan lo que sería una prueba de refutación, a una explicación de acuerdo a la teoría de por qué incurrió en C, de modo que se empieza a explicar cualquier resultado en base a la teoría, sin haber un escenario donde pueda ser falsable. De modo que el Psicoanálisis se vuelve como la teoría del clima del ejemplo anterior, no predice algo en particular, de modo que en realidad no explica el clima, y en este caso el comportamiento, puesto que cualquier resultado es posible. De acuerdo a Popper, podemos contrastar esto con la exacta delimitación de las teorías de Einstein por ejemplo, donde se afirma que si fuese el caso que la luz no que se curva alrededor del sol (lo cual es una predicción de la teoría de la relatividad general), la relatividad general es incorrecta. Este tipo de demarcaciones claras y específicas entre la verdad o la refutación de una teoría es un hecho ausente en el caso del Psicoanálisis y otras corrientes psicodinámicas.

Además de esto, están las teorías o corrientes con poco apoyo empírico, en el sentido de pruebas a favor de los postulados de la teoría. Aquí encontramos de todo, desde teorías popularizadas en el cine como el de las personalidades múltiples para la cual ni siquiera existe un diagnóstico reconocido por manuales como el DSM-V o el CIE-11, y es puramente ficción, hasta teorías o corrientes como la bioneuroemoción o las constelaciones familiares, entre muchas otras. El tema central es que si bien pueden ser teorías interesantes y con hipótesis atrevidas acerca de cómo funciona la psiquis, están desconectadas de la evidencia, ya que carecen de suficiente evidencia que la respalde. Tal como indica Alonso (2005), en el caso de las constelaciones familiares, si bien algunos de sus componentes merecen una cuidadosa consideración, ya que a pesar de su popularidad, es un proceso controversial, con prácticamente ninguna información sobre la efectividad terapéutica, donde los principios teóricos no han sido demostrados, la aproximación de la teoría es interesante y podría ser una herramienta poderosa para descubrir dinámicas significativas entre las relaciones humanas.En este campo también entran la nuevas “Neuro-Teorías”, que falazmente combinan la sugerencia de ser respaldadas por evidencia porque usan “Neuro” en el nombre, cuando en realidad tergiversan y usan de forma inadecuada los conocimientos de la Neurociencia. Este sería el caso de la programación neurolingüística (PNL), por ejemplo, tal como indica Witkowski (2010), la enorme popularidad de las terapias y la capacitación de la PNL no ha sido acompañada por el conocimiento de los fundamentos empíricos del concepto. Según la revisión del autor, donde de entre 315 artículos 63 estudios fueron seleccionados,  mostrando que de 33 estudios, el 18.2% muestra resultados que apoyan los principios de la PNL, mientras que en el 54.5% los resultados no apoyan los principios de la PNL y el 27.3% presenta resultados inciertos. El análisis cualitativo indica el mayor peso de los estudios de no apoyo y su mayor valor metodológico frente a los que apoyan los principios. Tales resultados contradicen la afirmación de una base empírica de PNL.

Aunque debemos tener en cuenta que los efectos no significativos de un estudio en particular no significa necesariamente que la evidencia cuenta en contra de la teoría, pues los datos pueden ser insensibles, o no estamos teniendo en cuenta los intervalos de confianza de manera adecuada y malinterpretamos el significado de los valores de p.

Como señala Demidenko (2016), hay una creciente frustración con el concepto del valor p en estadística. Además de tener una interpretación ambigua, el valor p se puede hacer tan pequeño como se desee aumentando el tamaño de la muestra (n). El valor p está desactualizado y no tiene sentido con el “big data”, pues todo se vuelve estadísticamente significativo. La raíz del problema con el valor p está en la comparación de medias. El autor sostiene que la incertidumbre estadística debe medirse en el nivel individual, no grupal. En consecuencia, la desviación estándar (SD), no el error estándar (SE), debe usarse con barras de error para presentar gráficamente los datos en dos grupos, por ejemplo.

El mal uso de la estadística y la interpretación de los valores p, ha generado la idea de que los estudios psicológicos no son confiables, y que por ello no pueden ser replicados (tal como lo indicaba una noticia hace pocos años, donde más de la mitad de los estudios en Psicología no superan la prueba de reproducibilidad: link). Esto ha traído el pensamiento de que las bases científicas de la Psicología no son muy buenas, pero el problema no es ese, sino la forma en que interpretamos los datos y la estadística de los estudios.

Además, como mencionan Ferguson y Heene (2012), el sesgo de publicación sigue siendo un tema controvertido en la ciencia psicológica. La tendencia de la ciencia psicológica a evitar la publicación de resultados nulos produce una situación que limita el supuesto de replicabilidad de la ciencia, ya que la replicación no puede ser significativa sin el posible reconocimiento de replicaciones fallidas. Los autores argumentan que el campo a menudo construye argumentos para bloquear la publicación e interpretación de resultados nulos y que los resultados nulos pueden extinguirse aún más a través de prácticas cuestionables de los investigadores. Dado que la ciencia depende del proceso de falsificación, los autores argumentan que estos problemas reducen la capacidad de la ciencia psicológica para tener un mecanismo adecuado para la falsificación de las teorías, lo que resulta en la promulgación de numerosas teorías que son ideológicamente populares pero que tienen poca base empírica.

Por otro lado, como señalan Morey, Romeij y Rouder (2016), un aspecto central de la ciencia es el uso de datos para evaluar el grado en que los datos mismo proporcionan evidencia para afirmaciones, hipótesis o teorías en competencia. La evidencia es, por definición, algo que debería cambiar la credibilidad de una aseveración en la mente de una persona razonable. Sin embargo, según estos autores, las estadísticas comunes, como las pruebas de significación y los intervalos de confianza, no tienen interfaz con los conceptos de creencia, y por lo tanto no está claro cómo se relacionan con la evidencia estadística. Dado este problema, muchos autores están recurriendo ahora a la estadística bayesiana, donde se puede cuantificar la evidencia estadística utilizando el factor de Bayes. Como mencionan Wagenmakers et al. (2018), la estimación de parámetros bayesianos y las pruebas de hipótesis bayesianas presentan alternativas atractivas a la inferencia clásica que utilizan intervalos de confianza y valores de p. Muchas de estas ventajas se traducen en oportunidades concretas para los investigadores pragmáticos. Por ejemplo, las pruebas de hipótesis bayesianas permiten a los investigadores cuantificar la evidencia y monitorear su progresión a medida que ingresan los datos, sin necesidad de conocer la intención con la que se recopilaron los mismos. 

La validez de los test psicológicos

Las pruebas psicométricas involucran toda una serie de pasos para investigar la validez y fiabilidad de la mismas. Estos pasos involucran desde aspectos lingüísticos que implican traducir a un idioma un instrumento en el caso de estar en un idioma diferente, que puede incluir transformar un reactivo para que se adapte a su contenido (semántico) y donde se suele requerir un trabajo con jueces  donde se utiliza más de una opción de traducción hasta lograr acuerdo mayoritario, ha cuestiones estadísticas propias del test, como la realización de un piloteo con el material confeccionado en un test presentable a los usuarios. En base a este se realizan análisis de estadísticos descriptivos, como la frecuencia, para garantizar que haya respuesta en las distintas opciones, ver la dirección de los reactivos en base a lo que se intenta medir, ver la normalidad de la distribución, entre otros aspectos. También se realizan divisiones de distribuciones de variables en cuartiles, con comparaciones de t de student para relevar discriminación de los artículos del test. Generalmente, con los reactivos que se reúnen de los resultados de los pasos anteriores se realiza una prueba de confiabilidad interna con la medida de Alfa de Cronbach. Setrabaja aquí con correlaciones y luego análisis factoriales para ver la consistencia y ajuste de las dimensiones o agrupaciones del test. Con dichos análisis estadísticos se obtienen resultados que permiten visualizar índices de confiabilidad y validez que apoyan o no las propiedades psicométricas del test, analizando los ajustes pertinentes para aplicarlos de forma correcta en una población en particular. De forma que el eje de la metodología en cuanto a la validación instrumental se centra en el aprovechamiento de una extensa base de datos, llevando a cabo el análisis de la validez de constructo de la escala, utilizando análisis factoriales de carácter exploratorio y de carácter confirmatorio, estudiando la varianza explicada, sumado a esto a los análisis de tipo descriptivo.

Es importante que los diferentes test psicológicos sigan este camino empírico adecuado para que puedan ser realmente usados para aquello que dicen medir. Sin embargo, existe un cúmulo importante de evidencia que indica que muchos test normalmente usados por psicólogos no son validos o fiables. Este es el caso de muchos tests llamados “proyectivos”. Tomemos el ejemplo del test del dibujo de la figura humana, de acuerdo a Lilienfeld, Wood y Garb (2000), quienes indican según una multitud de revisores durante las últimas cuatro décadas que han convergido en una conclusión unánime, la de que la abrumadora mayoría de los signos en el dibujo de la figura humana poseen una validez insignificante o nula.

Siguiendo a estos autores, aunque las técnicas proyectivas siguen siendo ampliamente utilizadas en entornos clínicos y forenses, su estatus científico sigue siendo altamente controvertido. Revisando el estado actual de la literatura con respecto a las propiedades psicométricas (normas, confiabilidad, validez, validez incremental, utilidad de tratamiento) de tres instrumentos proyectivos principales: Rorschach Inkblot Test, Thematic Apperception Test (TAT) y dibujos de figuras humanas, los autores concluyen que existe un soporte empírico para la validez de un pequeño número de índices derivados del Rorschach y TAT. Sin embargo, la gran mayoría de los índices de Rorschach y TAT no están respaldados empíricamente. La evidencia de validez de los dibujos de figuras humanas es aún más limitada. Con algunas excepciones, los índices proyectivos no han demostrado consistentemente una validez incremental por encima y más allá de otros datos psicométricos. Los autores indican que existen “file drawer effects”, ya que el tamaño de los efectos de los estudios publicados superó notablemente a los de los estudios no publicados.

Las terapias psicológicas y la pseudociencia

Teniendo en cuenta la problemática anterior, no es inesperado que muchas terapias psicológicas cuenten con serios problemas de apoyo empírico, y puedan de hecho, ser perjudiciales para las personas. Según Thomason (2010), no todas las psicoterapias son igualmente seguras y efectivas, y una lista de tratamientos a evitar ayudaría tanto a los psicoterapeutas como a los clientes a evitar terapias potencialmente dañinas. Es relativamente sencillo y fácil para cualquier consejero, trabajador social o psicólogo crear una nueva forma de psicoterapia, practicarla y ofrecer talleres de capacitación sobre ella, incluso si hay poca o ninguna evidencia de su seguridad o efectividad. Como señala el autor, se debe alentar la creatividad y la innovación, pero se debe esperar que los creadores de nuevas terapias realicen una investigación acorde para demostrar la seguridad y la eficacia del nuevo enfoque.

De acuerdo a Cummings y O’Donohue (2010), algunas de las psicoterapias que no son probadas, probablemente ineficaces y/o potencialmente dañinas incluye al renacer, el tratamiento del trastorno de estrés postraumático cuando se aplica a situaciones civiles en lugar de situaciones de combate, terapia de renacimiento (apego), desensibilización y reprocesamiento por movimientos oculares (EMDR), tratamiento para el trastorno de identidad disociativo, el psicoanálisis, psicoterapia para ayudar a los clientes con la autorrealización, terapia de aceptación y compromiso, entre otras.

Referencias

Alonso, Y. (2005). Las constelaciones familiares de Bert Hellinguer: un procedimiento psicoterapéutico en busca de identidad. International journal of psychology and psychological therapy5(1), 85-96.

Cummings, N. A., & O’Donohue, W. T. (2010). Eleven blunders that cripple psychotherapy in America: A remedial unblundering. Routledge.

Demidenko, E. (2016). The p-value you can’t buy. The American Statistician70(1), 33-38.

Ferguson, C. J., & Heene, M. (2012). A vast graveyard of undead theories: Publication bias and psychological science’s aversion to the null. Perspectives on Psychological Science7(6), 555-561.

Lilienfeld, S. O., Wood, J. M., & Garb, H. N. (2000). The scientific status of projective techniques. Psychological science in the public interest, 1(2), 27-66.

Morey, R. D., Romeijn, J. W., & Rouder, J. N. (2016). The philosophy of Bayes factors and the quantification of statistical evidence. Journal of Mathematical Psychology72, 6-18.

Peikoff, L. (2012). The DIM hypothesis: Why the lights of the West are going out.New York: New American Library.

Popper, K. (2005). The logic of scientific discovery. Routledge.

Thomason, T. C. (2010). Psychological Treatments to Avoid. Alabama Counseling Association Journal, 36(1), 39-48.

Wagenmakers, E. J., Marsman, M., Jamil, T., Ly, A., Verhagen, J., Love, J., … & Matzke, D. (2018). Bayesian inference for psychology. Part I: Theoretical advantages and practical ramifications. Psychonomic bulletin & review25(1), 35-57.

Witkowski, T. (2010). Thirty-five years of research on Neuro-Linguistic Programming. NLP research data base. State of the art or pseudoscientific decoration?. Polish Psychological Bulletin41(2), 58-66.

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s