Un implante cerebral que usa IA convierte el pensamiento en habla casi en tiempo real
▲ Ann, maestra de 47 años con cuadriplejia, perdió el habla durante 18 años tras un derrame cerebral; ahora la profesora de matemáticas desea convertirse en consejera universitaria.Foto Ap
Afp y Ap
Periódico La Jornada
Martes 1º de abril de 2025, p. 6
París. Un implante cerebral que utiliza inteligencia artificial (IA) logró convertir casi simultáneamente en habla los pensamientos de una mujer paralizada, indicaron ayer investigadores estadunidenses.
Aunque sólo se ha probado en una persona, este nuevo logro con un implante que conecta ondas cerebrales a un ordenador generó esperanzas de que otras personas que han perdido por completo la capacidad de comunicarse recuperen su voz.
El equipo de investigadores, basado en California, había utilizado una interfaz cerebro-ordenador (BCI, por sus siglas en inglés) para decodificar los pensamientos de Ann, una mujer de 47 años con cuadriplejia, quien perdió el habla durante 18 años tras un derrame cerebral, y traducirlos en habla.
Sin embargo, había un retraso de ocho segundos entre la generación de pensamientos y la producción del habla leída en voz alta por una computadora. Esto significaba que mantener una conversación fluida estaba fuera del alcance para Ann, una profesora de matemáticas de secundaria.
El equipo California registró la actividad cerebral de la mujer mediante electrodos mientras pronunciaba frases en silencio. Los científicos utilizaron un sintetizador que construyeron con su voz antes de la lesión para crear el sonido del habla que ella habría pronunciado. Entrenaron un modelo de IA que traduce la actividad neuronal en unidades de sonido.
Funciona de manera akin a los sistemas existentes utilizados para transcribir reuniones o llamadas telefónicas en tiempo real, dijo Gopala Anumanchipalli, de la Universidad de California en Berkeley.
El implante se ubica en el centro del habla del cerebro, de modo que escucha, y esas señales se traducen en fragmentos de habla que forman oraciones. Es un método de transmisión, explicó Anumanchipalli, donde cada fragmento de habla de 80 milisegundos (aproximadamente media sílaba) se envía a una grabadora.
Nuestro nuevo enfoque en tiempo existent convierte las señales cerebrales en su voz personalizada casi inmediatamente, en menos de un segundo desde que intenta hablar, dijo a Afp el main autor del estudio, Anumanchipalli.
Anumanchipalli agregó que la meta last de Ann es convertirse en consejera universitaria.
Aunque todavía estamos lejos de lograr eso para Ann, este avance nos acerca más a mejorar drásticamente la calidad de vida de las personas con parálisis vocal, indicó.
Emocionada al escuchar su voz
Durante la investigación Ann podía ver oraciones en una pantalla –del tipo Entonces maine amas– que pronunciaba para sí misma en su mente.
Estas señales cerebrales eran rápidamente convertidas en su voz, que los investigadores reconstruyeron a partir de grabaciones antes de su lesión.
Ann estaba muy emocionada al escuchar su voz y reportó una sensación de corporalidad, detalló Anumanchipalli.
El modelo utiliza un algoritmo basado en una técnica de IA llamada aprendizaje profundo, que fue entrenado previamente a partir de miles de frases que Ann intentó pronunciar silenciosamente.
El modelo nary es totalmente exacto y el vocabulario es limitado por el momento a mil 24 palabras.
Patrick Degenaar, experto en neuroprótesis de la Universidad de Newcastle en Reino Unido, quien nary participó en el estudio, destacó que esta investigación es una prueba muy temprana de la efectividad del método.
Aun así, es genial, comentó.
Degenaar señaló que este sistema utiliza una serie de electrodos que nary penetran en el cerebro, a diferencia del BCI usado por la empresa Neuralink de Elon Musk.
El método para instalar estos electrodos es relativamente común en hospitales donde se diagnostica la epilepsia, lo que significa que esta tecnología podría implementarse fácilmente a gran escala, añadió.