Células del cerebro de una rata. Foto vía.
La comprensión del cerebro significa mucho más que simplemente mapearlo. Conocer es más que ver: tal como un mapa de una ciudad solo nos brinda información limitada de esta, mapear neuronas y actividad neuronal en el cerebro nos brinda solo información limitada sobre las funciones del cerebro. Un nuevo ensayo publicado en el periódico Nature Neuroscience, cortesía de un equipo de la Universidad Carnegie Melon y la Universidad de Columbia, plantea este argumento mientras describe una nueva clase de algoritmos de aprendizaje automático, basada en la “reducción dimensional”, los cuales nos otorgan una mirada más profunda y extensiva a los procesos del cerebro.
Videos by VICE
Según los autores del estudio, los métodos analíticos convencionales tienden a examinar solo un par de neuronas a la vez en lugar de analizar las interacciones a lo largo de las amplias redes que subyacen en el real funcionamiento del cerebro. Es agradable imaginar cómo tales observaciones a pequeña escala van en cascada hacia la funcionalidad completa del cerebro, una especie de premisa básica para el proyecto Blue Brain y el neuro-optimismo en general, pero esto es un poco más complejo.
“Uno de los principios centrales de la neurociencia es que un gran número de neuronas trabajan juntas para dar lugar a la función cerebral”, dijo en un comunicado Byron M. Yu de la Universidad Carnegie Mellon. “Sin embargo, la mayoría de los métodos analíticos estándares son solo apropiados para el análisis de una o dos neuronas a la vez. Para interpretar y entender cómo un gran número de neuronas interactúan, se hace necesario utilizar métodos estadísticos avanzados, tales como la reducción de dimensionalidad”
No hay nada particularmente mágico acerca de la reducción de dimensionalidad. Es un método concebido para analizar situaciones que implican un gran número de variables (o dimensiones), una forma de lidiar con la complejidad que no trata de simplificar los procesos en exceso. Tareas como el reconocimiento de patrones o el reconocimiento facial son muy difíciles para las computadoras debido al gran número de variables involucradas (alta dimensionalidad). A medida que más y más puntos de datos se introducen en un algoritmo, la potencia de procesamiento necesaria sube hasta las nubes, al igual que el ruido estadístico. Y esto es más o menos la vanguardia de la informática.
Los algoritmos de reducción de dimensionalidad operan bajo la premisa de que, bajo todas esas dimensiones, hay algún tipo de proceso central que se puede derivar, el cual es capaz de describir el proceso más complejo. Por ejemplo, digamos que como ordenador, tenemos una imagen de un rostro humano. Hay un gran número de puntos de datos necesarios para describir esa cara (imagina un mapa de coordenadas 3D) y, si tuviésemos que girar esa imagen, todos los puntos de datos cambiarían demasiado y pronto estaríamos abrumados por la gran cantidad de información . Si comenzamos con, digamos, 100 puntos de datos, y mapeamos la cara 100 veces por segundo, después de cinco segundos de rotación tendremos (la computadora) que lidiar/procesar con 50.000 piezas de información.
La reducción de dimensionalidad reconoce que todas esas piezas de información están en realidad sujetas a una sola cosa, a un solo grado de libertad. Lo que podría parecer un montón insuperable de datos es realmente un fenómeno reducible a una sola variable. Suena obvio, pero dentro del mundo de los algoritmos de aprendizaje automático, no lo es tanto. Una rotación de cara es un caso bastante claro, pero en el mundo real, la caza por el subconjunto de variables relevantes es precisamente eso: una caza.
Tal vez ya puedes ver cómo esto se aplica al cerebro, una estructura de una complejidad gigante, por no decir más. En este caso, este tipo de algoritmo podría ayudar a los neurocientíficos a decodificar actividades y procesos cerebrales subyacentes u “ocultos” que no impliquen la interacción sensorial con el mundo exterior —donde estos subconjuntos de variables latentes puedan ser utilizados para trazar las vías de pensamientos que de otra manera se nos harían invisibles—.
“La reducción de dimensionalidad lineal se puede utilizar para la visualización o la exploración de estructuras de datos, la eliminación de ruido o la compresión de datos, la extracción de espacios de características significativas y más,” escribió John P. Cunningham, co-autor del documento.
“Uno de los principales objetivos de la ciencia es explicar fenómenos complejos en términos simples”, dijo Cunningham en el comunicado. “Tradicionalmente, los neurocientíficos han tratado de encontrar simplicidad con las neuronas individuales. Sin embargo, cada vez se reconoce más que las neuronas muestran características variadas en sus patrones de actividad que son difíciles de explicar mediante el examen de una neurona a la vez. La reducción de dimensionalidad nos proporciona una manera de abrazar la heterogeneidad de una sola neurona y buscar explicaciones simples en términos de cómo las neuronas interactúan las unas con las otras”.
Por último, hay que entender que la idea básica aquí es tomar una de las estructuras imaginables más complejas y reducirla a un reino más simple, más pequeño, y sin embargo describir su gran complejidad de manera bastante correcta. Eso es algo que podemos hacer. ¿No son las estadísticas algo maravilloso?