lesiones cerebrales

¿Es posible que 20 años de investigaciones cerebrales no sirvan para nada?

Hablamos con expertos acerca del estudio de PNAS sobre IRMf que se volvió viral, y lo que significa para las lesiones cerebrales en el deporte.
15.7.16
Photo by Flickr user Neil Conway/CC BY 2.0

La semana pasada, la comunidad científica en internet se sorprendió al enterarse que un estudio publicado en por PNAS supuestamente generó dudas sobre la totalidad de un método de investigación cerebral. El estudio trata de un escaneo específico del cerebro llamado IRM (o IRMf) que mide la activación cerebral cuando responde a estímulos o tareas. Es muy posible que hayas escuchado hablar de este tipo de estudios, a lo mejor aquella vez que el Daily Mail publicó una nota sobre su uso para examinar los cerebros de los perros cuando reconocen a las personas.

El estudio se compartió por todas partes porque su resumen atrajo a los lectores: "Estos resultados cuestionan la validez de unos 40 mil estudios de IRMf y pueden tener un gran impacto en la interpretación de los resultados neurológicos".

Los encabezados de las noticias sacaron provecho de ello. "¿Las investigaciones sobre el cerebro de los últimos 15 años podrían estar equivocadas?", "Veinte años de estudios cerebrales podrían irse a la basura gracias a un error de software", "Un error en software podría invalidar 15 años de estudios sobre el cerebro".

Leer más: Los Falcons de Atlanta "contratan" a entrenador de rugby para evitar lesiones cerebrales

Si es verdad podría ser un gran escándalo. En las últimas décadas hemos aprendido mucho sobre el cerebro gracias a las imágenes por resonancia magnética funcional (IRMf), incluyendo detalles sobre lesiones traumáticas cerebrales. Entender cómo las constantes conmociones cerebrales pueden generar daño a largo plazo —como la encefalopatía traumática crónica (ECT) detectada en docenas de ex jugadores de futbol americano— es importante para reducir los daños en los deportes de contacto; las técnicas como los análisis de las resonancias IRMf son una de varias herramientas que los investigadores utilizan. Pero antes de poder evaluar el impacto real del estudio de PNAS en este tema, primero tenemos que entender exactamente lo que el estudio argumenta.

Jeff Ware, miembro de la Universidad de Pennsylvania especializado en neuroimagenología, explicó que los resultados del estudio no son tan sorprendentes para cualquiera involucrado en el campo porque los análisis de IRMf son complejos e involucran otros campos como la física, neurociencia, ciencia computacional y estadística, entre otros. Las imágenes por resonancia magnética funcional miden los cambios en el flujo de sangre hacia el cerebro, o "una medida indirecta de la actividad neurológica", como lo plantea Ware. Su colega, Douglas Smith, me dijo que a diferencia de los músculos, los cuales experimentan claramente el flujo de sangre cuando se utilizan, algunas áreas del cerebro varían en el flujo de sangre cuando son utilizadas.

Los investigadores jamás usarían el método de IRMf para diagnosticar algo en un paciente por ser muy indirecto. Requiere de análisis extensivos de diferentes escaneos para obtener algo de información útil. Por ello los investigadores toman como referencia una inmensidad de medidas por separado o corroboran los resultados con otro tipo de evidencia (preferentemente hacen las dos).

Por la complejidad del proceso, se utiliza un software para comprimir los datos por ellos. Los investigadores usan diferentes software para el tipo de análisis. De acuerdo con Ware, no existe un método universalmente aceptado para convertir los datos en bruto de los escaneos en información digerible.

Lo que nos lleva de regreso al estudio de PNAS. El informe concluye que cierto tipo de inferencia estadística utilizado por algunos estudios de IRMf es inválido. ¿Pero en verdad invalidó 20 años y 40 mil estudios sobre el cerebro como se dijo en tantos encabezados?

Las imágenes cerebrales se usan para dar sentido a los datos generados por los escaneos de IRMf. Foto por National Institute of Mental Health, National Institutes of Health/CC BY 2.0

Primero contacté a Ware, quien se especializa en neuroimagenología, para saber si el estudio pone en jaque lo que hemos aprendido en torno a los traumas cerebrales en los deportes. Básicamente dijo que no, porque los estudios de IRMf para lesiones de la cabeza ya habían sido cambiados a un método diferente que no utiliza la misma inferencia estadística que se menciona en el informe.

Pero comentó que existe un tipo de imágenes neurológicas usadas con mucha frecuencia para conmociones cerebrales llamado DTI o Diagrama de Tuberías e Instrumentación que tiene problemas similares a las IRMf. DTI mide la difusión del agua en el cerebro, particularmente en la materia blanca, para ver si la estructura cerebral está afectada a nivel microscópico. En teoría podría ser una forma de detectar el daño estructural de las lesiones antes de que la persona desarrolle síntomas severos. Esto podría permitir a los doctores entender la gravedad de la lesión en un atleta con mayor rapidez y con un mejor panorama del que se cuenta.

La proporción de la señal-sonido es muy baja, por eso los investigadores necesitan numerosos escaneos y datos antes de detectar algo de valor, parecido a las IRMf. Un estudio de 2014 concluyó que, a pesar de los resultados anteriores, DTI puede que no funcione del todo bien con leves lesiones cerebrales. Desde luego, esto no invalida el DTO como un método científico. Sólo genera preguntas sobre una de las maneras de análisis estadístico cuando el DTI es usado en un tipo de condición.

Sin embargo, eso es básicamente lo que sucedió con el estudio de IRMf. Días después de la aparición de los encabezados, uno de los coautores de la investigación, Thomas Nichols, subió una publicación en un blog arrepentido por el asunto de que "los resultados cuestionan la validez de unos 40 mil estudios". Después de algunos cálculos, Nichols incluyó el número de investigaciones afectados que ascienden a unos 3,500, cerca del once por ciento de toda la información. Pero también fue cuidadoso al subrayar que no significa que todos están "equivocados". Su explicación fue bastante técnica, pero la versión corta es: depende de muchas cosas.

El estudio no se habría hecho viral si el resumen original hubiese utilizado la cifra 35 mil en lugar de 40 mil. Además no es la primera vez que los métodos de análisis de IRMf reciben críticas. Una investigación del 2012 concluyó que pequeñas cantidades de movimiento en el cráneo durante los escaneos puede afectar los resultados, y una más reciente detalló que el orden en que la información es procesada puede afectar la detección de diferencias en pacientes con ligeras lesiones cerebrales. Es por esto que a menudo los investigadores prefieren corroborar evidencia en la estructura del cerebro para apoyar sus conclusiones de IRMf.

Para aquellos en el campo de la neuroimagenología, el estudio de PNAS fue útil, incluso hasta necesario.

De todos modos, Ware cree que la importancia del estudio para el público en general es "muy poca…IRMf aún no juega un papel en el diagnóstico o monitoreo de cualquier condición psicológica o psiquiátrica". En sí, no generó grandes dudas sobre las IRMf como tecnología, sólo por su manera específica de interpretar su información.

En lugar de ser una conclusión sorprendente, la investigación de PNAS exhibe una acción correctiva bastante normal en el mundo científico. "El problema con la biomedicina es que es muy fácil cometer un error", me dijo Smith, enfatizando que incluso científicos experimentados necesitan recordatorios periódicos para corregir sus aproximaciones. Los investigadores suelen ir más allá de las barreras actuales y ver qué sucede.

La ciencia es un campo donde se avanza dos pasos para retroceder uno y medio; es decir, un estudio muestra un desarrollo prometedor, lo que a su vez genera más investigaciones que terminan por disminuir lo que se ha aprendido, y así sucesivamente. El estudio de PNAS —el cual Wate calificó de "excelente" e "importante y crucial"— no es una bofetada a 20 años de ciencia. Es la ciencia misma.