Abigail Klein Leichman
De Israel21c
Imagine que no puede hablar. Usted sabe lo que quiere decir, pero los músculos del habla están paralizados debido a un ataque cerebral, a una enfermedad neurológica o a cualquier otra afección.
Ariel Tankus, científico del Technion – Instituto de Tecnología de Israel, no tiene una varita mágica para curar el problema, pero el científico de computación, de 37 años, pasó dos años trabajando en una compleja interfaz cerebro-máquina que podría dar el poder de hablar a personas que no pueden expresarse.
Esa tecnología superavanzada articularía letras o palabras decodificando la actividad cerebral originada por los pacientes al pensar en los sonidos o apalabras que desean expresar.
Los comienzos de su investigación se describieron recientemente en la revista científica Nature Communications en un artículo escrito por Tankus y sus colaboradores, Prof. Shy Shoham del Technion y Prof. Itzjak Fried de la Universidad de California, Los Angeles (UCLA), en la que Tankus hizo su investigación posdoctoral.
Tankus dice a ISRAEL21c que ha estado investigando posibilidades de interfaz cerebro-máquina desde 2005. Cuatro años después formó equipo con Shoham y cambió su enfoque hacia el habla, una compleja área de estudios del cerebro.
“Nuestros experimentos comenzaron mucho antes de conocer a los pacientes”, dice Tankus. “Primero diseñamos lo que queríamos pedir a los pacientes que hicieran, y decidimos enfocarnos en vocales para ir construyendo el habla desde vocales a sílabas simples, en la esperanza de combinarlas más tarde en palabras y tal vez en frases. El paso siguiente fue preparar el software que correlaciona la información registrada”.
Reconociendo el habla por la actividad cerebral
Pero ¿cómo encontrar voluntarios para ese estudio? Se presentó una oportunidad única en el Centro Médico de la UCLA. Apacientes con epilepsia que no respondían a la medicación se les implantó quirúrgicamente electrodos en la cabeza por una semana o dos, de manera que los médicos pudieron registrara la actividad cerebral a nivel celular durante los ataques. Muchos de los voluntarios se sintieron felices de poder participar en la investigación de Tankus.
“Les explicamos lo que queríamos lograr con los experimentos y la vasta mayoría se mostró muy bien dispuesta a ayudarnos a desarrollar una tecnología para ayudar a personas paralizadas en el futuro”, dice Tankus.
Instruyó a los voluntarios a decir el sonido de una vocal –“ah”, por ejemplo- cada vez que oian un timbre. Sincronizando el software de su laptop con el equipo de registro neural ya conectado al paciente Tankus registró la actividad neuronal que acompañaba cada secuencia de “timbre-ah-timbre-ah”. También registró la actividad cuando el paciente pronunciaba una sílaba de consonante y vocal.
Luego codificó los datos para que el software pudiera predecir –basándose sólo en la actividad cerebral y no en el registro de sonidos- cuál fue el sonido que emitió la persona. Por cierto, cuando la persona dijo “ah” la computadora también dijo “ah”.
“Mejoramos continuamente nuestra capacidad de predecir las vocales”, dice Tankus, quien voló varias veces entre Israel y California para completar los experimentos. “Ya tenemos la máquina, y sugerimos un nuevo algoritmo para hacer la predicción en jun artículo que saldrá pronto en la Journal of Neural Engineering”.
Los investigadores mapearon la matemática que determina cómo se representan los sonidos de vocales en áreas del cerebro, conectando la representación del cerebro con la anatomía y fisiología de la articulación de vocales.
La computadora predice vocales imaginadas por la persona
En la etapa siguiente la interfaz cerebro-máquina predijo y vocalizó el sonido de vocal que el paciente pensó después de oir el timbre pero que no pronunció en voz alta. Tankus informa que los pacientes “se sorprendieron al ver que la computadora hablaba en lugar de ellos”.
En su laboratorio de Haifa Tankus está afinando el software para decodificar consonantes a partir de la actividad cerebral. Eventualmente espera poder combinar vocales y consonantes en estructuras más complejas.
Tankus ay sus colaboradores esperan llevar la tecnología de electrodos al Centro Médico Sourasky de Tel Aviv para servir a pacientes de epilepsia en Israel y al mismo tiempo ofrecerles la oportunidad de participar en experimentos con la interfaz cerebro-máquina.
“Hay enfermedades en las que todo el cuerpo del paciente está paralizado y no puede comunicarse con el entorno, pero su mente aún funciona”, explicó Shoham, quien dirige el Laboratorio de Ingeniería de Interfaz Neuronal del Departamento de Ingeniería Biomédica del Technion. “Nuestro objetivo a largo plazo es restaurar la capacidad de esos pacientes de hablara usando sistemas que incluyan la implantación de electrodos en su cerebro, la decodificación de la actividad neuronal que codifica el habla y emitir sonidos de habla artificial”.
Debes estar conectado para publicar un comentario. Oprime aqui para conectarte.
¿Aún no te has registrado? Regístrate ahora para poder comentar.