Científicos crean dispositivo que transforma pensamientos en habla

Decir los pensamientos se está volviendo literal: un dispositivo, que detecta señales eléctricas en las regiones productoras del habla del cerebro, creó un discurso sintético lo suficientemente bueno, como para que oyentes comprendan hasta oraciones complejas, informaron científicos de la Universidad de California en San Francisco.

Los oyentes pasaron por alto el 30 % de las palabras en el discurso sintético, como escuchar “conejo” cuando la computadora dijo “roedor”. Sin embargo, el discurso fue lo suficientemente claro como para aumentar la esperanza de que una interfaz cerebro-computadora podría dar voz a personas que no tienen debido a un derrame u otro daño cerebral.

Esa posibilidad viene con muchas advertencias, comenzando con la necesidad de abrir el cerebro para colocar electrodos en él. “Esa es una gran limitación“, dijo el neurocientífico Marcel Just, de la Universidad Carnegie Mellon, quien está desarrollando sistemas no invasivos para tratar de detectar pensamientos.

El habla es la última frontera en las interfaces cerebro-computadora, cuya primera generación descodificó las señales cerebrales de la corteza motora de pacientes con parálisis en instrucciones electrónicas para mover un brazo robótico o un cursor de computadora.

Los estudios anteriores han convertido las señales cerebrales y en el habla, pero en su mayoría “decodifican palabras sueltas, y monosilábicas”, dijo el ingeniero biomédico Chethan Pandarinath de la Universidad de Emory y el Instituto de Tecnología de Georgia, experto en interfaces cerebro-máquina. Los científicos de la UCSF, en contraste, pudieron “reconstruir oraciones completas, [con] resultados algo inteligibles para los oyentes humanos”, dijo. “Dar el salto de sílabas individuales a oraciones es técnicamente bastante desafiante y es una de las cosas que lo hace tan impresionante“.

Sin embargo, descifrar las palabras o pensamientos que alguien quiere decir sería un avance que cambiaría la vida más allá de los dispositivos de asistencia actuales, que convierten los movimientos de los músculos faciales o de los ojos en una letra, como el que el cosmólogo Stephen Hawking utilizó durante las tres décadas anteriores a su muerte el año pasado. Ese enfoque tiene una alta tasa de error y es extremadamente lento: generalmente 10 palabras por minuto, en comparación con 120 para el habla natural.

El neurocirujano de la UCSF, el Dr. Edward Chang, quien dirigió la investigación, dijo que producir “oraciones orales completas basadas en la actividad cerebral de un individuo significa que deberíamos poder construir un dispositivo que sea clínicamente viable en pacientes con pérdida del habla“.

Los científicos colocaron por primera vez una rejilla de electrodos de 16 por 16, llamada electrocorticografía (ECoG), en las superficies cerebrales de cinco participantes que se estaban sometiendo a una cirugía de epilepsia y habían aceptado participar en el experimento.

Los cinco leyeron en voz alta varios cientos de oraciones, mientras que la matriz de ECoG detectó señales cerebrales correspondientes al movimiento de sus labios, mandíbula, lengua y otras partes del tracto vocal. Esas señales se enviaron a una computadora programada para simular el tracto vocal, y los algoritmos tradujeron las señales a la lengua virtual y otros movimientos (más de 100 músculos producen el habla humana) y generaron palabras habladas.

Cientos de voluntarios que escucharon 100 oraciones de lenguaje sintético comprendieron hasta el 70 % de las palabras, con sonidos extendidos como shhh más fáciles de identificar que los explosivos, como la b y p.

Con un ECoG más denso y mejores algoritmos de traducción al tracto vocal, dijo Chang, el sistema probablemente se puede mejorar. Pero no está claro si podría ayudar a alguien que nunca ha hablado, como en la parálisis cerebral. Si alguien no produce ninguna señal cerebral que codifique los movimientos del tracto vocal, sería imposible entrenarlo para producir el habla a partir de señales.

Una esperanza más realista es restaurar el discurso a las personas que alguna vez lo tuvieron. Pero dado que los científicos entrenaron al sistema en las señales cerebrales de las personas con habla intacta, queda por verse si las personas que perdieron esa habilidad debido a un derrame cerebral u otra lesión, conservan suficiente maquinaria del cerebro para que la ECoG capte sus señales o pensamientos lo suficientemente claras como para que el tracto vocal virtual las decodifique.

Con información de STAT


Te puede interesar > FDA is investigating seizures after vaping

LachToday.com

Noticias | News

You may also like...

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.