La interfaz cerebro-máquina portátil convierte las intenciones en acciones



Crédito: Instituto de Tecnología de Georgia

Un nuevo sistema portátil de interfaz cerebro-máquina (IMC) podría mejorar la calidad de vida de las personas con disfunción motora o parálisis, incluso aquellas que luchan con el síndrome de encierra, cuando una persona está completamente consciente pero no puede moverse o comunicarse.


Un equipo internacional multiinstitucional de investigadores dirigido por el laboratorio de Woon-Hong Yeo en el Instituto de Tecnología de Georgia combinó electrónica inalámbrica de cuero cabelludo blando y realidad virtual en un sistema de IMC que permite al usuario imaginar una acción y controlar de forma inalámbrica una silla de ruedas o un brazo robótico.

El equipo, que incluyó a investigadores de la Universidad de Kent (Reino Unido) y la Universidad de Yonsei (República de Corea), describe el nuevo sistema de IMC basado en imágenes motoras este mes en la revista Advanced Science.

"La principal ventaja de este sistema para el usuario, en comparación con lo que existe actualmente, es que es suave y cómodo de usar, y no tiene cables", dijo Yeo, profesor asociado de la Escuela de Ingeniería Mecánica George W. Woodruff.

Los sistemas de IMC son una tecnología de rehabilitación que analiza las señales cerebrales de una persona y traduce esa actividad neuronal en comandos, convirtiendo las intenciones en acciones. El método no invasivo más común para adquirir esas señales es ElectroEncephaloGraphy, EEG, que típicamente requiere una engorrosa tapa del cráneo del electrodo y una red enredada de cables.

Estos dispositivos generalmente dependen en gran medida de geles y pastas para ayudar a mantener el contacto con la piel, requieren tiempos de configuración extensos, generalmente son incómodos e incómodos de usar. Los dispositivos también a menudo sufren de una mala adquisición de señales debido a la degradación del material o artefactos de movimiento, el "ruido" auxiliar que puede ser causado por algo como rechinar los dientes o parpadear los ojos. Este ruido aparece en los datos del cerebro y debe filtrarse.

El sistema portátil EEG diseñado por Yeo, que integra electrodos de microneedle imperceptibles con circuitos inalámbricos blandos, ofrece una mejor adquisición de señales. Medir con precisión esas señales cerebrales es fundamental para determinar qué acciones desea realizar un usuario, por lo que el equipo integró un potente algoritmo de aprendizaje automático y un componente de realidad virtual para abordar ese desafío.

El nuevo sistema fue probado con cuatro sujetos humanos,pero aún no se ha estudiado con personas discapacitadas.

"Esta es solo una primera demostración, pero estamos encantados con lo que hemos visto", señaló Yeo, director del Centro de Interfaces e Ingeniería Centradas en el Ser Humano de Georgia Tech, del Instituto de Electrónica y Nanotecnología, y miembro del Petit Institute for Bioengineering and Bioscience.

Nuevo paradigma

El equipo de Yeo introdujo originalmente la interfaz cerebro-máquina EEG suave y portátil en un estudio de 2019 publicado en Nature Machine Intelligence. El autor principal de ese trabajo, Musa Mahmood, también fue el autor principal del nuevo artículo de investigación del equipo.

"Esta nueva interfaz cerebro-máquina utiliza un paradigma completamente diferente, que involucra acciones motoras imaginadas, como agarrar con cualquiera de las dos manos, lo que libera al sujeto de tener que mirar demasiados estímulos", dijo Mahmood, estudiante de doctorado en el laboratorio de Yeo.

En el estudio de 2021, los usuarios demostraron un control preciso de los ejercicios de realidad virtual utilizando sus pensamientos, sus imágenes motoras. Las señales visuales mejoran el proceso tanto para el usuario como para los investigadores que recopilan información.

"Las indicaciones virtuales han demostrado ser muy útiles", dijo Yeo. "Aceleran y mejoran la participación y la precisión de los usuarios. Y pudimos registrar una actividad continua de imágenes motoras de alta calidad".

Según Mahmood, el trabajo futuro en el sistema se centrará en la optimización de la colocación de electrodos y una integración más avanzada de EEG basado en estímulos, utilizando lo que han aprendido de los últimos dos estudios.

Comentarios

Entradas populares