Dos mujeres que perdieron el habla logran comunicarse gracias a un implante cerebral

La técnica descodifica las señales neuronales y las traduce a palabras con una IA

Dos mujeres estadounidenses aquejadas de una parálisis –una por ELA y otra por un ictus– que les impide hablar han podido volver a comunicarse con su entorno gracias a unos implantes cerebrales que descodifican la actividad neuronal y la traducen a palabras. Se trata de dos tecnologías presentadas este miércoles en sendos artículos de la revista Nature, que facilitan la comunicación con una velocidad, precisión y riqueza de lenguaje inéditas hasta el momento.
Un equipo de la Universidad de California en San Francisco (UCSF), en Estados Unidos, demostró en el 2021 que era posible descodificar las señales cerebrales que una persona produce al intentar hablar y transformarlas en texto. Su primer intento permitió que un hombre con parálisis severa se comunicara con un vocabulario de 50 palabras. El sistema demostró que la traducción era posible, pero era limitado: se equivocaba una de cada cuatro veces y transcribía las señales a un ritmo de 18 palabras por minuto, mucho más lento que en una conversación normal, donde la velocidad es de unas 160.
Los implantes presentados este miércoles por la propia UCSF y la Universidad de Stanford, ambas en Estados Unidos, multiplican la velocidad y la riqueza de la comunicación. Los primeros han logrado un ritmo de 78 palabras por minuto formulando frases con un vocabulario de más de 1.000 términos diferentes, mientras que los segundos han llegado a las 62 palabras por minuto, pero con un vocabulario amplísimo, de 125.000 vocablos. Los resultados acercan la posibilidad de que personas que han perdido la voz puedan mantener conversaciones fluidas con su entorno y “son un verdadero hito en el campo”, valora Edward Chang, neurocirujano de la UCSF y líder de una de las investigaciones.
Ambas tecnologías recogen la actividad neuronal que debería activar los músculos de lengua, faringe, mandíbula y cara de las pacientes, permitiendo que hablaran si no sufrieran parálisis, y usan una inteligencia artificial para transformar las señales en palabras. Sin embargo, los grupos difieren en el modo de recoger los datos y entrenar a la IA.
Mientras los científicos de la Universidad de California han leído la actividad neuronal del conjunto de células de la superficie del cerebro, el equipo de Stanford ha insertado electrodos en el interior del córtex cerebral de la paciente para leer la actividad neurona a neurona.
El hecho de que ambas aproximaciones hayan dado resultados similares llena de optimismo a los investigadores. “El mensaje más importante es que hay esperanza, que esto continuará mejorando y que proveerá una solución en los próximos años”, concluye el neurocirujano de la UCSF. Por ahora, ambas tecnologías son puramente experimentales.
Para traducir la señal a palabras, equipos de investigación y pacientes entrenaron durante centenares de horas a sendas inteligencias artificiales. La Universidad de Stanford pidió a su voluntaria que, a lo largo de 25 días, repitiera más de 10.000 frases diferentes, sacadas aleatoriamente de conversaciones telefónicas. El algoritmo fue capaz de traducir los impulsos neuronales en palabras de un vocabulario amplísimo, de más de 125.000 términos, errando el 24% de ellas. Pese a que la tasa de fallos es elevada, es la misma que dos años atrás se daba con un lenguaje mucho más pobre, de tan solo 50 palabras. La nueva tecnología se equivocó solo una de cada diez veces con este vocabulario tan reducido.
En cambio, la Universidad de California optó por entrenar a la IA repitiendo una y otra vez frases de un vocabulario de unas 1.000 palabras. Con ello consiguieron que el sistema errara solo el 5% de los términos al tratar de verbalizar frases de un repertorio de 50 afirmaciones. Para formulaciones nuevas, el error volvía a darse en una de cada cuatro palabras. L.D.B. (SyM)

También te podría gustar...