Crean un sistema para hablar a partir de ondas cerebrales

Por BENEDICT CAREYMiles de personas deben recurrir a maneras muy exigentes de comunicarse como resultado de lesiones sufridas en accidentes o en combate, por embolias o trastornos neurodegenerativos que inhabilitan el habla.Los científicos reportan ahora haber desarrollado una “voz virtual prostética”, un sistema que decodifica las intenciones de vocalización del cerebro y las traduce en habla inteligible sin necesidad de mover un solo músculo, ni siquiera los de la boca.El sistema nuevo, descrito recientemente en la revista Nature, descifra los comandos motrices del cerebro que guían el movimiento vocal durante el habla —como el contacto de la lengua o el fruncido de los labios— y genera oraciones inteligibles que se aproximan a la cadencia natural de un hablante.

Edward Chang desarrolla una voz prostética virtual para pacientes con parálisis y otros daños neurológicos (Steve Babuljak para U.C.S.F.).

Para las pruebas, científicos de la Universidad de California, campus San Francisco y campus Berkeley, reclutaron a cinco personas que estaban hospitalizadas para evaluación antes de una intervención quirúrgica por epilepsia. Muchas personas epilépticas no obtienen resultados con medicamentos y eligen someterse a neurocirugía. Antes de la intervención, los doctores deben encontrar el sitio en el cerebro de cada paciente donde se originan las convulsiones; esto se realiza con electrodos colocados dentro del cerebro, o en su superficie, para escuchar las tormentas eléctricas delatoras.Encontrar esta ubicación puede tardar semanas. Durante ese tiempo, los pacientes andan con los electrodos implantados en o cerca de regiones cerebrales involucradas con señales de movimiento y audición. Cinco pacientes en la Universidad de California, campus San Francisco (UCSF), acordaron probar el generador de voz virtual. Cada uno tenía implantados una o dos matrices de electrodos: almohadillas con cientos de pequeños electrodos que se colocan sobre la superficie del cerebro.Conforme los pacientes recitaban cientos de oraciones, los electrodos registraban los patrones de actividad neuronal en la corteza motora cerebral. Los investigadores después asociaron esos patrones con los movimientos sutiles de labios, lengua, laringe y mandíbula que ocurren durante el habla natural. El equipo tradujo esos movimientos a oraciones habladas. El estudio encontró que hasta el 70 por ciento de lo dicho por el sistema virtual era inteligible. “Al descifrar la actividad cerebral que guía la articulación, mostramos que podíamos simular un habla más precisa y que suena más natural que la versión sintetizada a partir de la extracción de representaciones del sonido del cerebro”, dijo Edward Chang, profesor de neurocirugía en UCSF y coautor del nuevo estudio.Sistemas anteriores con base en implantes producen unas ocho palabras por minuto. El nuevo programa genera unas 150 palabras por minuto, cual habla natural. Los investigadores también encontraron que el sistema de voz prostética basada en la actividad cerebral de una persona podía ser utilizada, y adaptada, por alguien más —indicador de que podrían algún día estar disponibles sistemas virtuales generalizados. “Con más progreso, esperamos que los individuos con impedimentos del habla recobren la capacidad de pronunciarse libremente y de reconectarse con el mundo que los rodea”, escribieron Chethan Pandarinath y Yahia J. Ali, ingenieros biomédicos en la Universidad Emory y el Instituto Tecnológico de Georgia, en un comentario al reporte.© 2019 The New York Times

Fuente