“Si lees un texto en un periódico o en un libro, escuchas una voz en tu cabeza”, según Brian Pasley, neurólogo de la Universidad de California en Berkeley. “Estamos tratando de decodificar la actividad cerebral relacionada con esa voz para crear una prótesis médica que pueda permitir que alguien paralizado o sellado hable”.
El monólogo interno es un pararrayos del yo: es la narrativa incesante que se escucha en el fondo de nuestra mente, pero incluso ese diálogo podría tener un correlato de actividad neuronal que un algoritmo bien entrenado podría identificar.
Para probar esta hipótesis, Pasley y su equipó grabaron la actividad cerebral de siete pacientes de epilepsia. Los pacientes sólo tenían que mirar un texto, leerlo en voz alta, leerlo mentalmente y luego no hacer nada. Los textos elegidos fueron el Discurso de Gettysburg, el discurso inaugural de JFK y una rima infantil de Humpty Dumpty.
Cuando lo leían en voz alta, los investigadores buscaron las neuronas que reaccionaban al habla y generaron un decodificador personalizado para interpretar dicha información (es por esta necesidad de personalizar el algoritmo que un uso de vigilancia masivo de esta tecnología es, por el momento, teoría de conspiración). El decodificador creo una representación visual de las diferentes secuencias sonoras (espectrograma), al correlacionar sonidos en cada palabra a la frecuencia con que fue recabada por el cerebro.
Luego, trataron de decodificar la actividad cerebral cuando los pacientes leían en voz baja. Aunque la información difirió ligeramente, el decodificador fue capaz de reconstruir muchas de las palabras que los voluntarios se representaron mentalmente, utilizando solamente la actividad cerebral.
El descubrimiento (publicado en Frontiers in Neuroengineering) podría ayudar a que muchas personas se comuniquen por primera vez, pero no será pronto. La cantidad de información necesaria para decodificar una palabra y el entrenamiento personalizado del algoritmo son pasos necesarios para producir decodificadores individuales.