«Antes del descubrimiento de Australia, las personas del Viejo Mundo estaban convencidas de que todos los cisnes eran blancos, una creencia irrefutable pues parecía que las pruebas empíricas la confirmaban en su totalidad. La visión del primer cisne negro pudo ser una sorpresa interesante para unos pocos ornitólogos pero la importancia de la historia no radica aquí. Este hecho ilustra una grave limitación de nuestro aprendizaje a partir de la observación o la experiencia, y la fragilidad de nuestro conocimiento. Una sola observación puede invalidar una afirmación generalizada derivada de lilenios de visiones confirmatorias de millones de cisnes blancos. Todo lo que se necesita es una sola (y, por lo que me dicen, fea) ave negra»
Así empieza el libro de Nassim Nicholas Taleb, «El cisne negro: El impacto de lo altamente improbable». En las siguientes líneas trasladaré lo que la lectura de su primera parte me ha sugerido en su aplicación a la medicina clínica.
Siempre tenemos que recordar que, en la clínica, en la atención a los enfermos, lo que no sabemos es más importante que lo que sabemos. Incluso cuando la decisión tiene que ver con alguna intervención acreditada por las mejores evidencias. Sin embargo, los médicos actuamos con una excesiva sobreconfianza, más aún cuando son conocidos nuestros continuos errores de predicción. Es lo que Taleb denomina, “ignorancia agresiva”: la falta de comprensión de las cadenas causales provoca que sea muy fácil que provoquemos daño.
¿Cuál es la clave? Adaptarse a la imprevisibilidad; más que intentar evitarla, hay que aceptarla y actuar para mitigar los potenciales efectos dañinos. Para Taleb, centrarse en lo que no sabemos implica:
- Aprender del ensayo-error
- Arriesgarnos con el consentimiento del paciente
- Escuchar al enfermo y atender a las causas que nos da
El problema cognitivo no es solo del profesional clínico, por supuesto, sino que nos viene de fábrica a los humanos: nuestro sistema inferencial, fundamentalmente emocional e intuitivo, estaba diseñado para entornos mucho menos complejos donde era muy resolutivo y cometía menos errores.
Taleb insiste en que debemos evitar el recurso a platonificar, es decir, confundir el mapa con el territorio. Para decirlo de otra manera, confundir las evidencias con lo que realmente le pasa o necesita el enfermo. Tenemos una tendencia innata a buscar buenas explicaciones y el conocimiento científico suele procurarlas. Pero confundir el mapa con el territorio nos conduce a pensar que entendemos más de lo que realmente sabemos.
Fernando Broncano en su libro «Saber en condiciones: Epistemología para escépticos y materialistas» lo expresa fenomenal en su prólogo:
«No nos sirven de mucha ayuda los mapas dado que nuestro problema es que nos hemos perdido y no sabemos cuál es nuestra posición en ellos» (Po. 60)
Por supuesto no estamos diciendo que todos los mapas sean erróneos -aunque lamentablemente la calidad de la investigación biomédica deja mucho que desear– sino que utilizamos los mapas con una excesiva sobreconfianza y este generalizado sesgo intelectual nos puede estar hablando no de una debilidad específica profesional sino de una característica general de nuestro sistema de razonamiento. Como dice Taleb:
“Nos tomamos demasiado en serio lo que sabemos”.
Cuando un enfermo acude a consulta, la mayoría de los factores que contribuyen a su malestar son opacos. Solo se ve lo que aparece, pero no el guion completo que ha producido los sucesos. La forma de captar la realidad clínica es siempre e inevitablemente incompleta ya que no vemos lo que hay dentro de la caja negra, los mecanismos causales. El médico intenta compensar esta opacidad ontológica mediante tres recursos cognitivos (el “terceto de la opacidad” los llama Taleb):
- La ilusión de comprender: ignoramos la impredecibilidad básica de la realidad y tendemos a pensar que los casos son más predecibles y explicables de lo que realmente son
- La distorsión retrospectiva: construimos narraciones para dar sentido a los casos, lo que genera una falsa idea de comprensión
- Valoración exagerada de la información factual: la información a la que tenemos acceso no tiene por qué ser explicativa; tendemos a pensar que cuanta más información, especialmente si es redundante, menos incertidumbre
Estos tres mecanismos de nuestra mente conducen a una demasiado fácil categorización de los casos, su simplificación, para hacerlos inteligibles y menos complejos. El problema es que esta simplificación de la complejidad suele tener consecuencias explosivas para el enfermo ya que descarta fuentes de incertidumbre y nos empuja a malinterpretar la realidad clínica.
El factor suerte y el azar están continuamente influyendo en los resultados de las intervenciones clínicas, aunque nuestra tendencia a la explicación retrospectiva nos impide verlo. Taleb pone el ejemplo de los actores que triunfan. En realidad, el talento es fruto del éxito; y el éxito es fruto de la suerte. La mayoría de los actores con talento no triunfan y nunca son reconocidos como talentosos. Es decir, el éxito no es fruto del talento sino al contrario.
Taleb clasifica la importancia del azar dependiendo de en qué tipo de mundo se produce. En Mediocristan los sucesos particulares no cambian sustancialmente las situaciones. Funciona la ley de los grandes números: no hay elementos que alteren la media. Es más fácil que las predicciones funcionen. Es una aleatoriedad tipo 1 y suele relacionarse con el mundo de lo físico. Sin embargo, en Extremistan, son posibles cisnes negros, eventos extremos que alteran completamente la situación de los fenómenos y, por tanto, las predicciones son menos fiables, el conocimiento previo es menos útil y las consecuencias del error más graves. Hay una aleatoriedad tipo 2. Los sucesos que ocurren en Extremistan (ámbito de lo social, por ejemplo) son mucho más frecuentes que los Mediocristan.
Las inferencias inductivas, proceso mental que los médicos clínicos están continuamente realizando, son el principal problema intelectual del conocimiento y, por supuesto, de lo/as profesionales clínicos. Hay algunos autores que conocen este fenómeno como “riesgo inductivo” aunque para otros sería mejor clasificar este tipo de riesgos más ampliamente como “riesgo epistémico” del que el riesgo inductivo es una parte.
El ejemplo clásico de riesgo inductivo es el del pavo de Russell:
“Este pavo descubrió que, en su primera mañana en la granja avícola, comía a las 9 de la mañana. Sin embargo, siendo como era un buen inductivista, no sacó conclusiones precipitadas. Esperó hasta que recogió una gran cantidad de observaciones del hecho de que comía a las 9 de la mañana e hizo estas observaciones en una gran variedad de circunstancias, en miércoles y en jueves, en días fríos y calurosos, en días lluviosos y en días soleados. Cada día añadía un nuevo enunciado observacional a su lista. Por último, su conciencia inductivista se sintió satisfecha y efectuó una inferencia inductiva para concluir: “Siempre como a las 9 de la mañana”. Pero ¡ay! Se demostró de manera indudable que esta conclusión era falsa cuando, la víspera de Navidad, en vez de darle la comida, le cortaron el cuello. Una inferencia inductiva con premisas verdaderas ha llevado a una conclusión falsa”.
El pobre animalito incrementaba su confianza en sus conclusiones cada día que pasaba y las confirmaba a pesar de que su final estaba cada vez más cerca. Para el pavo, el día de acción de gracias es un cisne negro. “Todo lo que debemos procurar”, dice Taleb, “es tomar decisiones sin ser un pavo” (p. 74).
¿Trabajan los médicos en Mediocristán o en Extremistán? Las variables físicas (peso, la altura, la frecuencia cardiaca, etc) o fisiológicas (nivel de sodio, función renal, consumo de calorías, etc) son de Mediocristan, es decir, el rango de resultados posibles es limitado. Sin embargo, la salud en un asunto mucho más complejo donde además de las variables físicas y fisiológicas están implicadas las causas más azarosas como los accidentes, las infecciones, los factores psicológicos, los ambientales o los sociales. Sin duda, la salud pertenece a lo que Taleb llama Extremistan donde la inferencia inductiva tiene muchos más riesgos. Tomar decisiones clínicas pensando que la salud pertenece a Mediocristan es actuar como el pavo de Russell. Como dice Taleb: “Necesitamos una nueva mentalidad para no esconder el problema de la inducción debajo de la alfombra”
Comportarnos como el pavo de Russell tiene consecuencias importantes según Taleb:
- Nos centramos en segmentos preseleccionados de los casos para conseguir que se ajusten a nuestras hipótesis: error de confirmación
- Nos engañamos con historias explicativas para que todo parezca predecible: la falacia narrativa
- Ignoramos todo lo que ignoramos: las “pruebas silenciosas”
- Tunelamos: nos centramos en unas pocas fuentes de información que suelen ser las más accesibles no las más relevantes. Taleb lo llama “empirismo ingenuo”
En Extremistan hemos de aplicar el escepticismo que, por supuesto, no implica no creer en las evidencias sino desconfiar por norma de ellas. Hay otros hábitos cognitivos que son útiles, como por ejemplo lo que Taleb llama el empirismo negativo: es más fácil saber qué afirmación es falsa que saber cuál es verdadera:
“Podemos acercarnos a la verdad mediante ejemplos negativos, no mediante la verificación. Elaborar una regla general a partir de los hechos observados lleva a la confusión. Contrariamente a lo que se suele pensar, nuestro bagaje de conocimiento no aumenta a partir de una serie de observaciones confirmatorias (como las del pavo)” (p 82)
Popper, aplicado al avance científico, lo llamaba falsar la hipótesis; en clínica podría traducirse como buscar siempre datos que descarten nuestra hipótesis más que datos que la confirmen.
Taleb afirma que estamos evolutivamente diseñados para hacer inducciones continuamente, no necesariamente desde la experiencia:
“Estos instintos no están bien adaptados al entorno actual, posterior al alfabeto, intensamente informativo y estadísticamente complejo” (p. 87)
Y continua:
“Este instinto de hacer inferencias de forma rápida y de tunelar (es decir, centrarse en un reducido número de fuentes de incertidumbre) lo seguimos llevando como algo que nos es co-sustancial. Dicho de otro modo, es el instinto el que nos pone en aprietos” (p 88)
Esta pulsión inductivista de nuestra mente se muestra especialmente dañina por la necesidad que tenemos de encontrar explicaciones a los fenómenos. Los vínculos causales son más frecuentes en la imaginación del/a clínico que en la realidad:
“Nos gustan las historias, nos gusta resumir y nos gusta simplificar, es decir, reducir la dimensión de las cosas” (p. 91)
Este gusto por las narraciones prima la interpretación exagerada de lo ocurrido en los casos clínicos con el fin de conseguir historias compactas y coherentes sobre la explicación desnuda, áspera, ambigua y, a veces, aparentemente contradictoria. Esta tendencia distorsiona gravemente nuestra representación mental del mundo, haciéndolo más entendible y predecible de lo que es, lo que nos trasmite una falsa seguridad de comprensión y una sobreconfianza en nuestras hipótesis y decisiones:
“Somos incapaces de fijarnos en secuencias de hechos sin tejer una explicación, es decir, sin forzar un vínculo lógico de relación entre ellos” (p. 90)
Las explicaciones atan los hechos, aumentando nuestra impresión de comprender. Inventar historias, poner más de lo que vemos, teorizar, sería la opción por defecto de nuestro aparato cognitivo. Resistirse a ello, por tanto, debe ser un esfuerzo consciente. No tenemos control sobre las inferencias narrativas. Taleb enfatiza que se necesita un esfuerzo considerable para ver los hechos desnudos (y recordarlos) al mismo tiempo que suspendemos el juicio y huimos de las explicaciones que nos asaltan inicialmente.
Buscamos patrones en los acontecimientos para poder acceder a su recuerdo con más facilidad. Así, cuanto más aleatoria es la información, menos capaces somos de recordarla ya que no podemos enmarcarla en un patrón. Es decir, nuestro cerebro tiende naturalmente a trasmitirnos que el mundo es menos aleatorio de lo que es.
La falacia narrativa, alimentada por la descomunal cantidad de evidencias científicas que manejamos (la mayoría poco relevantes, es decir, como mucho confirmatorias, cuando no falsas), es muy problemática para la práctica médica: reduce la complejidad de los casos y protege nuestras hipótesis de la aleatoriedad. Ambas consecuencias, sumamente peligrosas para los pacientes.
El Mediocristan funcionan las narraciones mejor que en Extremistan. Por eso nos sentimos más seguros bajando el colesterol a un enfermo que pensando qué podemos hacer para mejorar su salud. La falacia narrativa se debe evitar de forma consciente favoreciendo en nuestras mentes la experiencia y el conocimiento clínico sobre sobre la teoría.
Esto significa ser empírico escéptico: favorecer un tipo de conocimiento práctico sobre el teórico mientras suspendemos el juicio y dudamos por sistema de la relevancia y calidad del conocimiento científico. El empirismo escéptico sería más una actitud ante el conocimiento que una filosofía nueva. Broncano lo expresa así:
«El escepticismo es más un estilo o quizá una actitud que una teoría.. se presenta como una terapia de la creencia» (Po. 169)
El escéptico no te dirá que abandones tus creencia sino que no te obsesiones con su verdad.
Nuestras intuiciones y conocimiento teórico no están diseñados para la no linealidad que implica la complejidad: “Nuestro aparato emocional está diseñado para una causalidad lineal” (p. 119). Pero la realidad clínica raramente nos concede el privilegio de una progresión positiva lineal y satisfactoria. Los casos clínicos parecen responder a una causalidad lineal por nuestra tendencia a tunelizar las percepciones, confirmar nuestras hipótesis y reconstruir los casos mediante narraciones.
Otro de los problemas cognitivos innatos al ser humano, según Taleb, y que, en mi opinión, es sumamente peligroso para los enfermos, es el aprendizaje supersticioso que los médicos hacen de su experiencia. Tendemos a evaluar nuestro desempeño de manera muy favorable para nuestra autoestima. El origen de este aprendizaje supersticioso es lo que Taleb llama “las pruebas silenciosas”, la causa de toda superstición. La anécdota, que cuenta, escribió Cicerón, es divertida: los fieles salvados de ahogarse pueden llevarnos a creer en la oración mientras no veamos a los fieles ahogados:
“Las pruebas silenciosas es lo que los sucesos emplean para ocultar su propia aleatoriedad” (p 136)
La aleatoridad en la evolución de la mayoría de nuestros enfermos agudos queda opaca porque las pruebas de nuestros fracasos tienden a quedar ocultos, por nuestras interpretaciones bondadosas o por las decisiones de los enfermos de ir a urgencias o consultar a otro médico sin volver para contarnos lo mal que le fueron nuestros consejos. Con los enfermos crónicos, nuestras intervenciones no pueden ser evaluadas ya que los cursos alternativos de acción no se producen y desconocemos los riesgos a los que hemos sometido a los enfermos cuando éstos no producen efectos. Es lo que Taleb llama “ilusión de estabilidad”. El hecho de que a nuestro enfermo no le haya pasado nada por la acción médica recomendada no implica que la acción recomendada no tuviera riesgos y que éstos no sigan existiendo para otros enfermos.
La ilusión de estabilidad debilita nuestra interpretación de las propiedades que definen la supervivencia mientras nos impone una vaga idea de causalidad. El aprendizaje supersticioso nos predispone a seguir corriendo riesgos con los siguientes casos y hacerlo con cada vez más confianza. La experiencia acaba siendo gravemente deformadora. Nos agarramos a “porqués superficiales” cuando en la mayoría de los casos ha sido el azar el que ha decidido los resultados. No es que no haya causalidad en el mundo de la medicina clínica sino que es muy difícil determinarla.
Los atributos de la incertidumbre a la que nos enfrentamos en nuestra atención a los enfermos tiene poca relación con los rasgos estetizados, definidos y comprensibles que nos encontramos en las evidencias. Los riesgos y beneficios que suponen nuestras intervenciones no son cuantificables. En la medicina clínica, cuando atendemos casos individuales, se desconocen las probabilidades y las fuentes de incertidumbre no están bien definidas. Son riesgos no cuantificables o no knightianos (los llama así Taleb en honor a Frank Knight que los definió por primera vez).
Por eso, si lo único que trasladamos a los residentes y estudiantes es que «se deben saber las evidencias» lo más normal es que acaben confundiendo el mapa con el territorio, actuando con sobreconfianza y fijando su incompetencia a través del aprendizaje supersticioso:
“Antes de que el pensamiento occidental se ahogara en su mentalidad científica, lo que con arrogancia se llama Ilustración, las personas preparaban su cerebro para pensar no para calcular” (p. 167)
Existe una distorsión intelectual que ha sido señalada por autores como Toulmin en su obra «Cosmopolis: El trasfondo de la modernidad» y que procede de los orígenes y el éxito de la revolución científica:
“Ahí está la razón de que platonifiquemos, vinculando los esquemas conocidos con los conocimientos bien organizados, hasta el punto de estar ciegos ante la realidad” (p. 170)
David Healy lo expresaba muy bien en el BMJ:
«La ciencia hace avanzar el conocimiento generando datos a medida que disponemos de nuevas técnicas, como un fármaco, un instrumento o un método de evaluación para arrojar nuevas observaciones. Sin embargo, la misión de la ciencia no es sustituir el juicio por la técnica. Los pacientes constituyen el principal conjunto de datos clínicos y están presentes en carne y hueso para ser interrogados. Solo cuando compatibilizamos estas dos perspectivas es cuando podemos empezar a tener un conocimiento clínico sólido.»
Abel Novoa es médico de familia
Trackbacks/Pingbacks