Descubren que el cerebro puede almacenar 10 veces más de información de la que se pensaba, tal como indica un estudio

Una reciente investigación ha demostrado que el cerebro humano tiene una mayor capacidad de almacenar información de la que se pensaba hasta ahora. Este hallazgo abre el camino para comprender procesos en nuestro cerebro, y cómo funcionan en patologías como el Alzheimer.

Cerebro humano
Un reciente estudio comandado por el Instituto Salk que depende de la Universidad de California logró identificar que la cantidad de información que transporta el cerebro y luego la que puede almacenar es mucho mayor de lo que se creía hasta ahora.

Un grupo de investigadores desarrolló un método para medir la fuerza sináptica, la precisión de la plasticidad y el almacenamiento de información en el cerebro. Utilizando la teoría de la información, descubrieron que las sinapsis pueden almacenar diez veces más información de lo que se creía anteriormente, tal como lo indica un informe de NeuroScience News. El hallazgo mejoran la comprensión del aprendizaje, la memoria y cómo estos procesos evolucionan o se deterioran con tiempo.

En los próximos años, investigadores de todo el mundo podrían utilizar esta técnica para realizar descubrimientos sobre la capacidad del cerebro humano para aprender nuevas habilidades, recordar acciones cotidianas y almacenar información a corto y largo plazo.

Este conocimiento ahora ayudaría a impulsar la investigación sobre los trastornos neurodegenerativos y del desarrollo neurológico. También ayudaría a comprender el proceso detrás de la memoria y los trastornos cerebrales como el Alzheimer. El proceso de aprender y recordar nueva información fortalece conexiones importantes en el cerebro.

Por ejemplo, con cada vuelta que se hace a una baraja de fichas de vocabulario, las definiciones aparecen más rápidamente y con mayor facilidad. Recordar esas nuevas palabras y definiciones con mayor facilidad con la práctica es una prueba de que esas conexiones neuronales, llamadas sinapsis, pueden fortalecerse o debilitarse con el tiempo, una característica conocida como plasticidad sináptica.

En la búsqueda de saber cómo aprendemos y recordamos los humanos

El hecho de poder cuantificar la dinámica de las sinapsis individuales puede ser un desafío para los neurocientíficos, pero recientes innovaciones computacionales del Instituto Salk pueden estar cambiando eso y revelando nuevos conocimientos sobre el cerebro en el camino. Para comprender cómo el cerebro aprende y retiene información, los científicos intentan cuantificar cuánto más fuerte se ha vuelto una sinapsis a través del aprendizaje y cuánto más fuerte puede llegar a ser.

youtube video id=WYawqmD2jis

La fuerza sináptica, indican los científicos, se puede medir observando las características físicas de las sinapsis, pero es mucho más difícil medir la precisión de la plasticidad. Esto es si las sinapsis se debilitan o fortalecen en una cantidad constante, y que cantidad de información puede almacenar una sinapsis. Detrás de esto está la búsqueda de comprensión sobre cómo aprenden y recuerdan los seres humanos, así como de cómo esos procesos evolucionan con el tiempo o se deterioran con la edad o la enfermedad.

Todos estos hallazgos fueron publicados por Los hallazgos se publicaron en Neural Computation de MIT el pasado 23 de abril de 2024. El equipo fue comandado por Mohammad Samavat de la Universidad de California, en San Diego. “Estamos mejorando en la identificación exacta de dónde y cómo las neuronas individuales están conectadas entre sí, pero todavía tenemos mucho que aprender sobre la dinámica de esas conexiones”, indicó el profesor Terrence Sejnowski, otro de los autores principal del estudio y titular de la cátedra Francis Crick en Salk.

Es la puerta que se abre a un mayor conocimiento del cerebro

Terrence Sejnowski remató con una declaración que apoya a quienes piensan que nuestro cerebro es mucho más poderoso de lo que pensábamos. El ha dicho que “hemos creado una técnica para estudiar la fuerza de las sinapsis, la precisión con la que las neuronas modulan esa fuerza y la cantidad de información que las sinapsis son capaces de almacenar, lo que nos ha llevado a descubrir que nuestro cerebro puede almacenar diez veces más información de lo que pensábamos anteriormente”.

Plasticidad sináptica
El estudio busca entender más sobre la plasticidad sináptica. Cómo las conexiones neuronales se fortalecen o debilitan con el tiempo en función de la experiencia.

Cuando un mensaje viaja a través del cerebro, salta de neurona en neurona, fluyendo desde el extremo de una neurona hacia los tentáculos extendidos, llamados dendritas, de otra. Cada dendrita de una neurona está cubierta de pequeños apéndices bulbosos, llamados espinas dendríticas, y al final de cada espina dendrítica se encuentra la sinapsis, un pequeño espacio donde se encuentran las dos células y se transmite una señal electroquímica. Se activan diferentes sinapsis para enviar mensajes diferentes.

La teoría de la información es una forma matemática sofisticada de entender el procesamiento de la información como una entrada que viaja a través de un canal ruidoso y se reconstruye en el otro extremo. El equipo también midió la cantidad de información contenida en el proceso. A pesar de las diferencias en el tamaño de cada espina dendrítica, cada una de las 24 categorías de fuerza sináptica contenía una cantidad similar que variable entre 4,1 y 4,6 bits de información.


Referencia de la noticia:
Neural Computation - MIT: Synaptic Information Storage Capacity Measured With Information Theory