TECNO |

Diseñan un implante que traduce las señales cerebrales en palabras

Un grupo de investigadores trabaja en un decodificador que permitiría hablar a las víctimas de un accidente cardiovascular o una parálisis.

Un grupo de investigadores trabaja en un decodificador que convertirá las señales cerebrales en palabras y permitiría hablar a las víctimas de un accidente cardiovascular o una parálisis, según un estudio publicado el miércoles.

 

Estos científicos inventaron un decodificador para reproducir palabras sintéticas por computadora, a partir de las señales cerebrales que activan los movimientos correspondientes en la boca. Presentado en la revista Nature, esta técnica está en sus primeros pasos y su implementación tardará.

Sin embargo, sus promotores esperan que algún día beneficie a pacientes que saben hablar pero que perdieron la capacidad. "Nuestro objetivo a largo plazo es crear una técnica para restablecer la comunicación en pacientes que no pueden hablar, ya sea por problemas neurológicos como accidentes cerebrovasculares o enfermedades como ciertos tipos de cáncer", dijo a la AFP uno de los autores del estudio, Edward Chang, de la Universidad California (UCSF), en San Francisco.

Del cerebro a la garganta
Ya hay dispositivos que ayudan a estos pacientes a componer palabras letra por letra mediante movimientos de los ojos o la cabeza. Pero aunque mejoran la calidad de vida, estos sistemas son lentos y sirven para producir unas 10 palabras por minuto, en vez de las 150 cuando se está en facultades.

De ahí la idea de los científicos de ir a buscar directamente las palabras a su fuente, el cerebro. Llevaron a cabo un experimento con cinco pacientes tratados por epilepsia a los que colocaron electrodos en los cerebros.

Los investigadores primero pidieron a estos pacientes que leyeran en voz alta algunas oraciones predefinidas. El objetivo: identificar, gracias a los electrodos, las señales cerebrales responsables de la articulación de las palabras.

Luego, decodificaron estas señales asociando los movimientos necesarios para la pronunciación, en las mandíbulas, la lengua, los labios o la laringe. Finalmente, sobre la base de estos movimientos, reprodujeron dichas oraciones por computadora.

Todas en inglés, estas oraciones eran de construcción simple. Por ejemplo, "La prueba que estás buscando no se puede encontrar en los libros". Las grabaciones difundidas por los científicos son asombrosas: si bien la voz sintética se come ciertas palabras, otras son claramente comprensibles.

"Las señales cerebrales relacionadas con los movimientos del habla son en parte comunes a todos los individuos", dijo Edward Chang. Según él, "algún día será posible que un descodificador configurado en una persona sea usado por un paciente que no puede hablar, que podrá controlarlo gracias a su propia actividad cerebral".

Agencia France Presse

Dejá tu comentario