En la novela clásica de Alejandro Dumas, El conde de Montecristo, un personaje llamado Monsieur Noirtier de Villefort sufre un terrible infarto cerebral que lo deja paralítico. Aunque permanece despierto y consciente, ya no puede moverse ni hablar, y depende de su nieta Valentine para recitar el alfabeto y hojear un diccionario donde encontrar las letras y palabras que necesita. Con esta rudimentaria forma de comunicación, el decidido anciano consigue salvar a Valentine de ser envenenada por su madrastra y frustrar los intentos de su padre de casarla contra su voluntad.
El retrato que hace Dumas de este estado catastrófico (en el que, como él dice, “el alma está atrapada en un cuerpo que ya no obedece sus órdenes”) es una de las primeras descripciones del síndrome de enclaustramiento. Esta forma de parálisis profunda se produce cuando se daña el tronco encefálico, generalmente a causa de un derrame cerebral, pero también como resultado de tumores, lesiones cerebrales traumáticas, mordeduras de serpiente, abuso de sustancias, infecciones o enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA).
Se cree que este trastorno es poco frecuente, aunque es difícil saber hasta qué punto. Muchos pacientes encerrados pueden comunicarse mediante movimientos oculares intencionados y parpadeos, pero otros pueden quedar completamente inmóviles, perdiendo incluso la capacidad de mover los globos oculares o los párpados; lo que imposibilita atender a la orden “parpadea dos veces si me entiendes”. Como resultado, los pacientes pueden pasar una media de 79 días encerrados en un cuerpo inmóvil, conscientes pero incapaces de comunicarse, antes de que se les diagnostique adecuadamente.
La llegada de las interfaces cerebro-máquina ha alimentado la esperanza de devolver la comunicación a las personas en este estado de encierro, permitiéndoles reconectar con el mundo exterior. Estas tecnologías suelen utilizar un dispositivo implantado para registrar las ondas cerebrales asociadas al habla y, a continuación, emplean algoritmos informáticos para traducir los mensajes deseados. Los avances más interesantes no requieren parpadeo, seguimiento ocular ni intentos de vocalización, sino que capturan y transmiten las letras o palabras que una persona dice en silencio en su cabeza.
“Creo que esta tecnología tiene el potencial de ayudar a las personas que más han perdido, a las que están realmente enclaustradas y ya no pueden comunicarse en absoluto”, afirma Sarah Wandelt, estudiante de posgrado en computación y sistemas neuronales en Caltech de Pasadena (California, EE UU). Estudios recientes de Wandelt y otros han aportado las primeras pruebas de que las interfaces cerebro-máquina pueden descodificar el habla interna. Estos métodos, aunque prometedores, suelen ser invasivos, laboriosos y caros, y los expertos coinciden en que necesitarán mucho más desarrollo antes de poder dar voz a los pacientes enclaustrados.
El primer paso para crear una interfaz cerebro-máquina es decidir qué parte del cerebro se va a utilizar. Cuando Dumas era joven, muchos creían que los contornos del cráneo servían de atlas para comprender el funcionamiento interno de la mente. Todavía se pueden encontrar vistosos diagramas frenológicos (con secciones delimitadas para facultades humanas como la benevolencia, el apetito y el lenguaje) en anticuados textos médicos y en las secciones de decoración de los grandes almacenes. “Por supuesto, ahora sabemos que eso no tiene sentido”, afirma David Bjånes, neurocientífico e investigador postdoctoral en Caltech. De hecho, ahora está claro que nuestras facultades y funciones surgen de una red de interacciones entre diversas áreas cerebrales, en la que cada área actúa como un nodo de la red neuronal. Esta complejidad supone un reto y una oportunidad: dado que aún no se ha descubierto una región del cerebro responsable del lenguaje interno, varias regiones diferentes podrían ser objetivos viables.
Por ejemplo, Wandelt, Bjånes y sus colegas descubrieron que una parte del lóbulo parietal llamada circunvolución supramarginal (SMG), asociada normalmente a la acción de agarrar objetos, también se activa mucho durante el habla. Hicieron este sorprendente descubrimiento mientras observaban a un participante en un estudio tetrapléjico al que habían implantado en el SMG una matriz de microelectrodos (dispositivo más pequeño que la cabeza de un alfiler, cubierto de puntas metálicas en miniatura). La matriz puede registrar el disparo de neuronas individuales y transmitir los datos a través de una maraña de cables a una computadora para que los procese.
Involucrar al cerebro, pero ¿cómo?
Bjånes compara la configuración de su interfaz cerebro-máquina con un partido de fútbol americano. Imagine que su cerebro es el estadio de fútbol y que cada neurona es una persona en ese estadio. Los electrodos son los micrófonos que se bajan al estadio para poder escuchar. “Esperamos colocarlos cerca del entrenador, o quizá de un locutor, o cerca de alguna persona del público que sepa realmente lo que está pasando”, explica. “Y entonces intentamos entender lo que ocurre en el campo. Cuando oímos el rugido del público, ¿es un touchdown? ¿Fue una jugada de pase? ¿Le han dado una patada al mariscal de campo? Intentamos entender las reglas del juego, y cuanta más información podamos obtener, mejor será nuestro dispositivo”, añade el investigador.
En el cerebro, los dispositivos implantados se sitúan en el espacio extracelular entre neuronas, donde controlan las señales electroquímicas que se mueven a través de las sinapsis, cada vez que se dispara una neurona. Si el implante capta las neuronas pertinentes, las señales que registran los electrodos parecen archivos de audio, reflejando un patrón diferente de picos y valles para distintas acciones o intenciones.
El equipo de Caltech entrenó su interfaz cerebro-máquina para reconocer los patrones cerebrales producidos cuando un participante tetrapléjico en el estudio decía internamente seis palabras (campo de batalla, vaquero, pitón, cuchara, natación, teléfono) y dos pseudopalabras (nifzig, bindip). Tras solo 15 minutos de entrenamiento, y utilizando un algoritmo de descodificación relativamente sencillo, el dispositivo pudo identificar las palabras con una precisión superior al 90%.
Wandelt presentó el estudio, que aún no se ha publicado en una revista científica revisada por pares, en el congreso de la Sociedad de Neurociencia de 2022, celebrado en San Diego (EE UU). En su opinión, los resultados suponen una importante prueba de concepto, aunque habría que ampliar el vocabulario antes de que un paciente enclaustrado pudiera frustrar a una madrastra malvada o conseguir un vaso de agua. “Obviamente, las palabras que elegimos no eran las más informativas; pero si se sustituyen por sí, no, por ciertas palabras que son realmente informativas, eso sería útil”, dijo Wandelt en la reunión.
Otro método evita la necesidad de ampliar el vocabulario diseñando una interfaz cerebro-máquina que reconoce letras en lugar de palabras. Intentando pronunciar en la boca las palabras que codifican cada letra del alfabeto romano, un paciente paralítico podría deletrear cualquier palabra que se le pasara por la cabeza, encadenando esas palabras para comunicarse en frases completas.
“Deletrear las cosas en voz alta con el habla es algo que hacemos muy a menudo, como cuando hablamos por teléfono con un representante de atención al cliente”, dice Sean Metzger, estudiante de bioingeniería de la Universidad de California en San Francisco y la Universidad de California en Berkeley. Al igual que el ruido de la estática en una línea telefónica, las señales cerebrales pueden ser ruidosas. Utilizar palabras en clave de la OTAN (como Alfa para A, Bravo para B y Charlie para C) facilita discernir lo que alguien está diciendo.
Pasar de pensamientos a letras
Metzger y sus colegas probaron esta idea en un participante incapaz de moverse o hablar como consecuencia de un ictus. Al participante en el estudio se le implantó una matriz más grande de electrodos, del tamaño de una tarjeta de crédito, en una amplia franja de su corteza motora. En lugar de escuchar a escondidas neuronas individuales, este conjunto registra la actividad sincronizada de decenas de miles de neuronas, como si se oyera a toda una sección de un estadio de fútbol rugiendo o animando al mismo tiempo.
Con esta tecnología, los investigadores grabaron horas de datos y los introdujeron en sofisticados algoritmos de aprendizaje automático. Fueron capaces de descifrar el 92% de las frases dichas en silencio por el sujeto del estudio (como “Está bien” o “¿Qué hora es?”,) al menos en uno de cada dos intentos. El siguiente paso, según Metzger, podría ser combinar este método basado en la ortografía con otro basado en las palabras, que desarrollaron anteriormente, para que los usuarios pudieran comunicarse más rápidamente y con menos esfuerzo.
En la actualidad, cerca de 40 personas de todo el mundo llevan implantadas matrices de microelectrodos, y cada vez hay más. Muchos de estos voluntarios (personas paralizadas por accidentes cerebrovasculares, lesiones medulares o ELA) pasan horas conectados a computadoras, ayudando a los investigadores a desarrollar nuevas interfaces cerebro-máquina que permitan a otros, algún día, recuperar funciones que han perdido. Jun Wang, informático y logopeda de la Universidad de Texas en Austin (EE UU), se muestra entusiasmado con los recientes avances en la creación de dispositivos para recuperar el habla, pero advierte de que aún queda mucho camino por recorrer antes de su aplicación práctica. “En este momento, todo este campo está aún en una fase inicial”.
A Wang y otros expertos les gustaría ver mejoras en el hardware y el software que hicieran los dispositivos menos engorrosos, más precisos y más rápidos. Por ejemplo, el dispositivo pionero del laboratorio de la Universidad de California en San Francisco funcionaba a un ritmo de unas siete palabras por minuto, mientras que el habla natural va a unas 150 palabras por minuto. E incluso si la tecnología evoluciona hasta imitar el habla humana, no está claro si los enfoques desarrollados en pacientes con cierta capacidad para moverse o hablar funcionarán en los que están completamente enclaustrados. “Mi intuición es que funcionaría, pero no puedo asegurarlo”, dice Metzger, “tendríamos que verificarlo”.
Otra pregunta que permanece sin respuesta es si es posible diseñar interfaces cerebro-máquina que no requieran cirugía cerebral. Los intentos de crear enfoques no invasivos han fracasado porque tales dispositivos han tratado de dar sentido a señales que han viajado a través de capas de tejido y hueso, como si se tratara de seguir un partido de fútbol desde el aparcamiento.
Wang ha progresado utilizando una técnica de imagen avanzada, llamada magnetoencefalografía (MEG), que registra en el exterior del cráneo los campos magnéticos generados por las corrientes eléctricas en el cerebro, y luego traduce esas señales en texto. Ahora intenta construir un aparato que reconozca los 44 fonemas de la lengua inglesa (como ph u oo) para construir sílabas, palabras y frases.
En última instancia, el mayor reto para restablecer el habla en pacientes encerrados puede tener más que ver con la biología que con la tecnología. La forma en que se codifica el habla, sobre todo el habla interna, puede variar según el individuo o la situación. Una persona puede imaginarse garabateando una palabra en una hoja de papel y visualizarlo mentalmente; otra puede oír la palabra, aun sin que sea pronunciada, resonando en sus oídos; otra puede asociar una palabra con su significado, evocando un estado de ánimo concreto. Dado que cada persona puede asociar distintas ondas cerebrales a distintas palabras, habrá que adaptar las técnicas a la naturaleza individual de cada persona. “Creo que este enfoque múltiple de los distintos grupos es nuestra mejor manera de cubrir todas nuestras bases, y así tener planteamientos que funcionen en un montón de contextos distintos”, dice Bjånes.
Artículo traducido por Debbie Ponchner.
Este artículo apareció originalmente en Knowable en español, una publicación sin ánimo de lucro dedicada a poner el conocimiento científico al alcance de todos.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.