Ciencia

Prótesis neuronales que hacen 'hablar' de nuevo enfermos de ELA o que han sufrido un ictus

Dos dispositivos son capaces de traducir en palabras los pensamientos de pacientes que padecen parálisis desde hace una década

6 min
Ann, participando en el estudio del doctor Chang, conectada con su avatar con implantes en el córtex.

BarcelonaUn ictus le arrebató a Ann la capacidad del habla hace 17 años y, durante todo este tiempo, no solo ha sido incapaz de pronunciar una sola palabra, sino que tampoco ha podido expresar claramente emociones como la alegría o la tristeza con gestos. L'ELA –las siglas de esclerosis lateral amiotrófica–que diagnosticaron a Pat Bennet en el 2012 no empezó en la médula espinal, como es habitual, sino en el tronco cerebral, y le deterioró los músculos asociados al movimiento facial hasta que perdió el habla. Aunque los cerebros de estas dos mujeres todavía recuerdan cómo se emiten las órdenes para comunicarse, las instrucciones se pierden antes de llegar a los labios, la lengua, la laringe o la cara. Pero, ¿qué pasaría si se lograra llegar a la fuente primaria, la actividad cerebral, captar las señales con un ordenador y traducir los pensamientos en mensajes? ¿Podrían personas con parálisis, como Ann y Pat, recuperar la voz?

Esta es la propuesta de dos equipos de investigadores de la Universidad de California en San Francisco (UCSF) y de la Universidad de Stanford. En dos estudios independientes pero complementarios, los científicos han desarrollado dos interfaces cerebro-ordenador (BCI, en inglés) con el objetivo de descifrar los mensajes a partir de la actividad cerebral de personas con parálisis y descodificarlos en formato texto o voz. Liderados por el presidente de cirugía neurológica de la UCSF, Edward Chang, y el investigador del Laboratorio Translacional de Prótesis Neurales de Stanford Francis Willett, ambos proyectos se han publicado este miércoles en la misma edición de la revista Nature.

La pérdida del habla es devastadora, no sólo por la incapacidad de comunicar palabras y frases, sino por el aislamiento social que comporta. Hasta ahora, ninguna tecnología que ha intentado restablecer la comunicación para estos pacientes ha sido suficientemente buena y los mensajes no acaban de ser nítidos, precisos y comprensibles. "Ambos artículos son apasionantes porque, desde dos enfoques independientes, demuestran un gran salto adelante en el restablecimiento del habla mediante interfaces cerebro-ordenador", valora Willett.

Los dos proyectos de neuroingeniería son similares, ya que en ambos casos la tecnología rehabilita los puentes cortados entre el cerebro y el trato vocal y permiten una comunicación "con una claridad, un tono y un ritmo" similar al de una conversación normal. Sin embargo, al mismo tiempo tienen singularidades: mientras que el de Stanford consigue grabar las señales neuronales y traducir más palabras por minuto, el de San Francisco crea un avatar digital que acompaña con voz y expresión facial el mensaje, como el cerebro del interlocutor desea.

Avatar

Extraer la voz del vídeo de la boda

El equipo de la UCSF ha desarrollado una máquina cerebro-ordenador que permite decodificar las señales cerebrales del habla en texto a casi 80 palabras por minuto y enviar ese mensaje a un avatar digital que no sólo habla, sino que imita la expresión facial de la participante. En este caso, de Ann. "Nuestro objetivo es restaurar de forma completa la comunicación, lo que es realmente la forma más natural de hablar con los demás", afirma Chang. Aunque anteriormente su equipo había llegado a descodificar señales cerebrales en texto de un hombre con parálisis por un ictus, el estudio actual es más ambicioso, ya que incluye los movimientos faciales que expresa la persona durante la conversación.

Para ello, Chang implantó en Ann una prótesis rectangular de 253 electrodos en la superficie del cerebro, concretamente en aquellas zonas que son críticas para el habla. Allí, los electrodos funcionan como un interceptor: se apoderan de las señales cerebrales del habla que, de no ser por el ictus, irían hacia los músculos de la lengua, la mandíbula y la laringe, así como de la cara. A partir de un cable conectado a la cabeza, se recogen los patrones eléctricos para producir los sonidos específicos de cada consonante y vocal individual en las palabras y se traducen por emitirlos a un banco de ordenador.

Durante semanas, Ann trabajó con el equipo para entrenar los algoritmos de inteligencia artificial y que reconocieran las señales cerebrales únicas para cada fonema. Esto implicó repetir diferentes frases de un vocabulario conversacional de 1.024 palabras una y otra vez, hasta que el ordenador reconoció los patrones de actividad cerebral asociados a estos sonidos. "Hemos decodificado frases utilizando un vocabulario de más de 1.000 palabras con una tasa de error de palabra del 25% a 78 palabras por minuto. Con más de 39.000 palabras la tasa de error apenas aumentaba hasta el 27,8%" , plantea el bioingeniero Sean Metzger.

El equipo también ideó un algoritmo que permitiera crear una voz parecida a la de la paciente antes de que sufriera el déficit neurológico –para ello, utilizaron una grabación de Ann hablando el día de su boda– y van animar a un avatar con la ayuda de un software que simula y anima los movimientos musculares de la cara, tales como que la mandíbula se abra y se cierre, que los labios sobresalgan o la lengua suba y baje. También los movimientos que se asocian a caras de felicidad, tristeza o sorpresa e, incluso, el tono, el énfasis y la acentuación.

Desciframiento

"Mantenernos conectados al mundo"

En el caso de el ensayo de Stanford, fue Pat Bennett quien se puso en contacto con Willett y el cirujano Jaimie Henderson después de leer, en 2021, que habían convertido la escritura a mano imaginada de una persona en un texto a través de un ordenador . Ella estaba dispuesta a participar en cualquier ensayo de restablecimiento del habla que tuvieran en la cabeza. Henderson, que de pequeño había sufrido la incapacidad comunicativa del padre tras un trágico accidente y sueña con devolver la voz a personas con parálisis, le colocó un software de última generación que descodifica los intentos de habla del cerebro en mensajes y, después, en palabras escritas en una pantalla de ordenador.

Los sensores que Henderson implantó en la corteza cerebral de Bennett, la capa más externa del cerebro, son matrices cuadradas de pequeños electrodos de silicio. Cada una contiene 64 electrodos, dispuestos en cuadrículas de 8 por 8, que se unen a hilos de oro fino que salen a través de pedestales atornillados al cráneo. Después, éstos se conectan por cable a un ordenador. "De la misma forma que una cámara con más píxeles produce una imagen más nítida, el uso de más electrodos nos da una imagen más clara de lo que está pasando en el cerebro", explica Willett en una sesión informativa.

Pat Bennett entrenando para convertir sus señales cerebrales en palabras escritas en un ordenador.

El funcionamiento de este BCI es sencillo de explicar pero complejo de poner en práctica. Un algoritmo de inteligencia artificial recibe y descodifica la información electrónica que recibe del cerebro de Bennett, pero antes y durante este sistema debe aprender a distinguir las diferentes actividades cerebrales asociadas a cada fonema que compone el inglés hablado. "Podemos descifrar los intentos de habla con una tasa de error de palabra del 23% cuando utilizamos un conjunto grande de 125.000 palabras posibles. Esto significa que aproximadamente tres de cada cuatro palabras se descifran correctamente", afirma Willett.

Después de cuatro meses de entrenamiento –unas 25 sesiones, cada una de unas cuatro horas de duración–, los intentos de enunciados de Bennett se convirtieron en palabras en la pantalla de un ordenador a 62 palabras por minuto, más de tres veces más rápido que el récord anterior de comunicación asistida por BCI. Actualmente, el ritmo de Bennett es de cerca de 160 palabras por minuto de conversación natural en hablantes ingleses.

Ninguno de los dispositivos está, de momento, disponible comercialmente, ya que únicamente tienen licencia para uso de investigación, y los investigadores no tienen intención inmediata de ampliar el ensayo a gran escala, tampoco en Europa a partir de colaboraciones científicas . Además, los participantes están informados de que, pasados varios años, será necesario retirar el implante y no podrán volver a participar en el ensayo. Con todo, y según los autores, propuestas como éstas abren la puerta a imaginar un futuro en el que se pueda restaurar una conversación fluida a alguien con parálisis, que le permita decir libremente lo que quiera decir con bastante precisión y que pueda ser entendido de forma fiable.

"Para aquellos que no tenemos habla, en un futuro esto implicaría mantenernos conectados con el mundo, quizá seguir trabajando, mantener relaciones de amigos y familiares; ir de compras, asistir a citas, pedir comida, ir a un banco , hablar por teléfono, expresar amor o agradecimiento, incluso discutir", desea Bennett. Para Henderson, la publicación de este estudio es emocionante: "Siento que estoy completando el círculo de poder conocer y comunicarme con mi padre de pequeño. Ojalá un día podamos decir a las personas con parálisis que no van a perder nunca la capacidad de comunicarse".

stats