Un equipo de investigadores de Yale ha dado un impresionante paso adelante en el conocimiento del cerebro. Este inquietante avance permite a los científicos utilizar una máquina de resonancia magnética y un algoritmo para reconstruir visualmente caras vistas por sujetos de prueba. Como vemos abajo, esta técnica arroja resultados con un impresionante nivel de exactitud. Extrañamente, estos resultados parecen ser posibles específicamente porque el cerebro procesa los rostros de una manera distribuida.
Desde que los científicos del cerebro encontraron nuestro procesador visual (el lóbulo occipital) han intentado leer e interpretar su actividad para reconstruir datos visuales. Razonaban que un modelo suficientemente detallado de cómo cada “pixel” que vemos se representa en el córtex visual permitiría una reconstrucción uno a uno de cada aspecto de una imagen, sin embargo eso sólo es parcialmente cierto. Cuando vemos imágenes como edificios o muebles, objetos simples y no emocionales, vemos sobre todo con nuestros ojos. Pero cuando vemos un rostro humano, vemos tanto con nuestro cerebro visual como con nuestro cerebro emocional, y vemos a través de los lentes de la confianza, la seguridad, la atracción sexual, etc.
Para dar cuenta de esto y poder ver lo que los participantes vieron, el equipo redujo una serie de fotos de prueba a una lista más pequeña de Eigenfaces, mapas faciales simplificados que cubrían la mayoría de las variaciones en las caras de prueba, a pesar de ser bastante menos numerosos y complejos. El programa entonces grabó e hizo referencias cruzadas de los patrones de excitaciones neurales en respuesta a sus Eigenfaces, y tomó estas lecturas de respuestas dentro y fuera del lóbulo occipital. Cuando los “rostros de prueba” experimentales fueron mostrados a los mismos participantes, su respuesta neural fue reconstruida para generar una nueva Eigenface mejor ajustada.
Esta investigación utilizó escáneres IRMf (Imagen por resonancia magnética funcional), que detectan la excitación neural en tiempo real. Los resultados son la primer lectura directa de información visual fuera del córtex visual, y como se puede ver en la imagen superior, provee poderosos resultados. Ambas construcciones, la occipital y la no-occipital, son inferiores a la imagen que concentra toda la información cerebral. Viendo áreas como el córtex temporal ventral, esperan tener una visión más detallada de la percepción que nunca antes. La tecnología apunta a leer las imágenes en el ojo de tu mente como opuestas a las vistas simplemente con tus ojos físicos.
Extrañamente, reconstrucciones de esta calidad probablemente serían imposibles para imágenes menos complejas que el análisis facial. Vemos caras con un ojo especialmente refinado y las procesamos con más detalle de lo que lo hacemos con cualquier otra cosa. Los rostros son contrastados con nuestra memoria, nuestras emociones, nuestra razón, nuestra intuición. Esto arroja mucha información que los científicos pueden explotar.
Como resultado, tenemos aquí un modelo para reconstruir experiencias subjetivas junto con información visual más objetiva. Esto podría ayudarnos a ver cómo los enfermos mentales o personas con lesiones cerebrales ven las cosas, desde esquizofrénicos hasta autistas. Las imágenes neurales ya permiten a los científicos ver la actividad cerebral de pacientes de todo tipo, pero la información obtenida simplemente indica en qué parte del cerebro está teniendo lugar más actividad y se necesita poder interpretar estos datos para darles sentido. Sin embargo, con un acercamiento más holístico al procesamiento visual de imágenes podríamos ver cómo la actividad abstracta del cerebro afecta la percepción de la mente consciente.
Los escáneres médicos se están volviendo cada vez más y más poderosos, ganando niveles de detalle, pero esos detalles sólo nos serán útiles si sabemos interpretarlos mediante una concepción más clara de la naturaleza interconectada del cerebro. Este es uno de los primeros intentos verdaderamente exitosos de leer la mente.