Grabaciones de la actividad de la superficie del cerebro permiten ver por primera vez cómo se controla el habla
Foto: Una lámina de electrodos registra la actividad eléctrica en la superficie del cerebro.
¿Podría una persona paralítica e incapaz de hablar como el físico Stephen Hawking usar un implante cerebral para tener una conversación?
Ese es el objetivo de cada vez más proyectos de investigación en universidades estadounidenses a lo largo de los últimos cinco años, que han demostrado que colocando dispositivos de grabación bajo el cráneo se puede capturar la actividad cerebral asociada con el habla.
Aunque los resultados son preliminares, el neurocirujano de la Universidad de California en San Francisco (EEUU) Edward Chang explica que está trabajando para crear una interfaz cerebro-máquina inalámbrica capaz de traducir las señales cerebrales directamente en habla usando un sintetizador de voz.
Este esfuerzo por construir una prótesis del habla se basa en el éxito anterior de experimentos en los que voluntarios paralíticos han usado implantes cerebrales para manipular extremidades robóticas usando sus pensamientos. La tecnología funciona porque los científicos son capaces de interpretar a grandes rasgos la actividad de las neuronas dentro de córtex motriz del cerebro y convertir esta en movimientos de los brazos o las piernas.
Ahora el equipo de Chang intenta hacer lo mismo para el habla. Es una labor más complicada en parte porque el lenguaje complejo es exclusivo de los humanos, y porque la tecnología no se puede probar fácilmente en animales.
En la Universidad de California, Chang ha llevado a cabo experimentos del habla en conexión con las operaciones cerebrales que hace sobre pacientes con epilepsia. Se coloca una lámina de electrodos bajo el cráneo del paciente para registrar la actividad eléctrica de la superficie del cerebro. Los pacientes llevan puesto el dispositivo, conocido como electrocorticógrafo durante varios días para que los médicos puedan localizar el origen preciso de los ataques.
Chang ha aprovechado esta oportunidad de estudiar la actividad cerebral mientras los pacientes hablan o escuchan hablar. Él y su equipo describían cómo usaron la serie de electrodos para hacer un mapa de los patrones de actividad eléctrica en una zona del cerebro conocida como la corteza motora sensorial ventral cuando los sujetos pronunciaban sonidos como "ba", "di" y "gu".
"Hay varias regiones del cerebro implicadas en la vocalización, pero creemos que esta es importante para el control aprendido y voluntario del habla", sostiene Chang.
La idea es registrar la actividad eléctrica en la corteza motora que produce los movimientos relacionados con el habla en los labios, la lengua y las cuerdas vocales. Chang explica que analizando matemáticamente estos patrones su equipo demostró que se pueden detectar "muchas características fonéticas clave".
Una de las consecuencias más aterradoras de enfermedades como la esclerosis lateral amiotrófica es que según se va extendiendo la parálisis, la gente no sólo pierde la capacidad de moverse, sino también la de hablar. Algunos pacientes de esclerosis lateral usan dispositivos que aprovechan movimientos residuales para comunicarse. En el caso de Hawking, el científico usa un software que le permite deletrear muy lentamente mediante movimientos de la mejilla. Otros pacientes usan sensores que siguen el movimiento de los ojos para manejar un ratón de ordenador.
La idea de usar un interfaz cerebro-máquina para poder conversar ya la habían propuesto otros, principalmente Neural Signals, una empresa que lleva desde la década de 1980 probando tecnología que usa un único electrodo para registrar directamente desde dentro del cerebro de personas con síndrome de enclaustramiento. En 2009 la empresa describió su trabajo para decodificar el habla de un paralítico de 25 años que no podía ni moverse ni hablar.
Otro estudio, publicado por el investigador de la Universidad Northwestern (EEUU) Marc Slutzky este año, intentó decodificar las señales de la corteza motora mientras los pacientes leían en voz alta palabras que contenían los 39 fonemas de la lengua inglesa. El equipo identificó fonemas con una precisión media del 36%. Este estudio usó el mismo tipo de electrodos superficiales usados por Chang.
Slutzky explica que aunque la precisión puede parecer muy baja, se consiguió con una muestra relativamente pequeña de palabras habladas en un periodo limitado de tiempo. "Esperamos conseguir una decodificación mucho mejor en el futuro", afirma. Y, según los científicos, el software de reconocimiento del habla también podría ayudar a adivinar qué palabras intenta decir la gente.
No hay comentarios.:
Publicar un comentario