Una investigación utilizó la actividad de neuronas individuales para reconstruir videos vistos por ratones, revelando cómo el cerebro procesa la información visual.
El cerebro no funciona como una cámara: recibe señales visuales, las procesa, las distorsiona y reconstruye su propia versión de la realidad. Una investigación publicada en la revista eLife dio un paso concreto hacia la comprensión de este proceso. Científicos del University College London (UCL) lograron reconstruir videos vistos por ratones basándose exclusivamente en la actividad eléctrica de sus neuronas.
Según el sitio web Science Alert, la técnica implica monitorear células nerviosas individuales en la corteza visual, la región del cerebro encargada de procesar la información visual, y procesar estos datos utilizando un algoritmo capaz de generar imágenes en movimiento, cuadro por cuadro.
El punto de partida fue un modelo de codificación neuronal dinámica desarrollado por otro grupo de investigación. Este sistema está entrenado para predecir qué neuronas se activarán cuando un animal vea un video en particular. El modelo tiene en cuenta no solo lo que se está viendo, sino también el comportamiento del animal en ese momento, su velocidad de movimiento, su posición y el diámetro de la pupila.
El equipo del UCL mejoró esta línea base entrenando siete versiones del modelo con una pantalla gris en blanco como referencia. La lógica es sustractiva: al calcular la diferencia entre la actividad neuronal frente a una pantalla sin estímulo y la actividad registrada durante la visualización de un vídeo real, los investigadores lograron aislar la señal correspondiente al contenido visual. A partir de ahí, el algoritmo actualiza la imagen en blanco píxel a píxel hasta que se aproxima a lo que el animal había visto.
Tras el entrenamiento, cinco ratones vieron un vídeo de diez segundos que los modelos nunca habían procesado. La actividad neuronal registrada fue suficiente para reconstruir el clip con una calidad superior a la de los métodos anteriores. La correlación entre el vídeo original y el reconstruido alcanzó 0,569, frente al 0,301 obtenido con el modelo de referencia anterior.
Joel Bauer, neurobiólogo de la UCL y autor principal del estudio, afirmó que “la precisión de las reconstrucciones mejoró con la inclusión de datos de más neuronas individuales, lo que demuestra la importancia de contar con datos neuronales completos”.
Más que una demostración tecnológica, la investigación busca comprender cómo el sistema visual del cerebro procesa y transforma la información que llega a través de los ojos. Para los investigadores, la representación mental de una escena no es una copia fiel del mundo exterior; es interpretada, filtrada y modificada por el propio proceso de percepción.
“No tenemos una representación perfecta del mundo en nuestra cabeza. El procesamiento visual distorsiona y modifica nuestra representación de tal manera que altera la información”, dijo Bauer. “Esta discrepancia entre la realidad y las representaciones en el cerebro no es necesariamente un error, sino una característica que refleja cómo nuestras mentes interpretan y amplían la información sensorial. Queremos explorar cómo ocurre esto en el cerebro”.
Los resultados fueron más precisos en cuanto al aspecto temporal de las imágenes, es decir, el momento en que los píxeles cambian con el tiempo. La resolución espacial y la cobertura de las reconstrucciones no alcanzaron el rendimiento temporal, y el equipo indicó que estos puntos serán el foco de futuros trabajos.
Este estudio forma parte de una línea de investigación que busca, de diferentes maneras, traducir las señales cerebrales en contenido inteligible. En trabajos anteriores se han utilizado equipos de electroencefalografía (EEG) para convertir los pensamientos de participantes humanos en texto, y resonancia magnética funcional (RMf) para identificar la narrativa de los podcasts escuchados por voluntarios.
La diferencia metodológica de este nuevo estudio radica en el uso de registros de neuronas individuales, con una resolución mucho más granular que la obtenida mediante EEG o fMRI. Esto permitió un mapeo más preciso de qué células específicas responden a qué estímulos visuales, refinando así el modelo.
Por Diogo Rodríguez.
