FYI.

This story is over 5 years old.

Tecnología

Nuevo Algoritmo para Simplificar la Profunda Complejidad del Cerebro

Al final y al cabo la mente es un problema de estadísticas.
Imagen: Células de cerebro de rata /Gerry Shaw

La comprensión del cerebro significa mucho más que simplemente mapearlo. Conocer es más que ver: tal como un mapa de una ciudad sólo nos brinda información limitada de la ciudad, mapear neuronas y actividad neuronal en el cerebro nos brinda sólo información limitada sobre las funciones del cerebro. Un nuevo ensayo publicado en el periódico Nature Neurosciente, cortesía de un equipo de la Universidad Carnegie Melon y la Universidad de Columbia, hace este argumento mientras describe una nueva clase emergente de algoritmos de aprendizaje de máquinas, "la reducción dimensional", los cuales nos otorgan una mirada más profunda y extensiva a los procesos del cerebro.

Publicidad

Según los autores del estudio actual, los métodos analíticos convencionales tienden a examinar sólo un par de neuronas a la vez en lugar de analizar las interacciones a lo largo de las amplias redes que subyacen el real funcionamiento del cerebro. Es agradable imaginar cómo tales observaciones a pequeña escala van en cascada hacia la funcionalidad completa del cerebro, una especie de premisa básica para el proyecto Blue Brain y el neuro-optimismo en general, pero esto apenas es tan fácil.

"Uno de los principios centrales de la neurociencia es que un gran número de neuronas trabajan juntas para dar lugar a la función cerebral," dijo de Carnegie Mellon Byron M. Yu en un comunicado. "Sin embargo, la mayoría de los métodos analíticos estándares son sólo apropiados para el análisis de una o dos neuronas a la vez. Para interpretar y entender cómo un gran número de neuronas interactúan, se hace necesario utilizar métodos estadísticos avanzados, tales como la reducción de dimensionalidad"

la mayoría de los métodos analíticos estándares son sólo apropiados para el análisis de una o dos neuronas a la vez

No hay nada particularmente mágico acerca de la reducción de dimensionalidad. Es un método concebido para analizar situaciones que implican un gran número de variables (o dimensiones) de algo les está sujeto—una forma de tratar con la complejidad que no simplifica los procesos en exceso. Tareas como el reconocimiento de patrones o el reconocimiento facial son muy difíciles para las computadoras debido al gran número de variables involucradas (alta dimensionalidad). A medida que más y más puntos de datos se introducen en un algoritmo, la potencia de procesamiento necesaria sube hasta las nubes, al igual que el ruido estadístico. Y esto es más o menos la vanguardia de la informática.

Publicidad

Los algoritmos de reducción de dimensionalidad operan bajo la premisa de que, bajo todas esas dimensiones, hay algún tipo de proceso central que se puede derivar capaz de describir el proceso más complejo. Por ejemplo, digamos que como ordenador, tenemos una imagen de un rostro humano. Hay un gran número de puntos de datos necesarios para describir esa cara (imagina un mapa de coordenadas 3D) y, si tuviésemos que girar esa imagen, todos los puntos de datos cambiarían demasiado y pronto estaríamos abrumados por la gran cantidad de información . Si comenzamos con, digamos, 100 puntos de datos, y sampleamos la cara 100 veces por segundo, después de cinco segundos de rotación, nosotros-la-computadora tendríamos que lidear/procesar con 50.000 piezas de información.

La reducción de dimensionalidad reconoce que todas esas piezas de información están en realidad sujetas a una sola cosa, a un sólo grado de libertad. Lo que podría parecer un montón insuperable de datos es realmente un fenómeno reducible a una sola variable. Suena obvio, pero dentro del mundo de los algoritmos de aprendizaje automático, no lo es tanto. Una rotación de cara es un caso bastante claro, pero en el mundo real, la caza por el subconjunto de variables relevantes es precisamente eso: una caza.

Tal vez ya puedes ver cómo esto se aplica al cerebro, una estructura de una complejidad gigante, por no decir más. En este caso, este tipo de algoritmo podría ayudar a los neurocientíficos a decodificar actividades y procesos cerebrales subyacentes u "ocultos" que no impliquen la interacción sensorial con el mundo exterior—donde estos subconjuntos de variables latentes puedan ser utilizados para trazar las vías de pensamientos que de otra manera se nos harían invisibles.

"La Reducción de dimensionalidad lineal se puede utilizar para la visualización o la exploración de estructuras de datos, la eliminación de ruido o la compresión de datos, la extracción de espacios de características significativas, y más," escribió John P. Cunningham, co-autor del documento actual.

"Uno de los principales objetivos de la ciencia es explicar fenómenos complejos en términos simples," dijo Cunningham en la declaración de hoy. "Tradicionalmente, los neurocientíficos han tratado de encontrar simplicidad con las neuronas individuales. Sin embargo, cada vez se reconoce más que las neuronas muestran características variadas en sus patrones de actividad que son difíciles de explicar mediante el examen de una neurona a la vez. La reducción de dimensionalidad nos proporciona una manera de abrazar la heterogeneidad de una sola neurona y buscar explicaciones simples en términos de cómo las neuronas interactúan las unas con las otras."

Por último, entender que la idea básica aquí es tomar una de las estructuras más complejas imaginables y reducirla a un reino más simple, más pequeño, que sin embargo describe su gran complejidad de manera bastante correcta. Eso es algo que podemos hacer. ¿No son las estadísticas algo maravilloso?