Los investigadores han desarrollado una nueva tecnología para decodificar señales neuromusculares para controlar muñecas y manos protésicas y accionadas. El trabajo se basa en modelos de computadora que imitan de cerca el comportamiento de las estructuras naturales en el antebrazo, la muñeca y la mano. La tecnología también podría usarse para desarrollar nuevos dispositivos de interfaz de computadora para aplicaciones como juegos y diseño asistido por computadora (CAD).

Las prótesis actuales de última generación confían en el aprendizaje automático

La tecnología ha funcionado bien en las primeras pruebas, pero aún no ha entrado en ensayos clínicos, por lo que está a años de la disponibilidad comercial.

El trabajo fue liderado por investigadores en el programa de ingeniería biomédica conjunta de la Universidad Estatal de Carolina del Norte y la Universidad de Carolina del Norte en Chapel Hill. Para crear un enfoque de reconocimiento de patrones para el control de la prótesis, este enfoque requiere que los usuarios enseñen al dispositivo a reconocer patrones específicos de actividad muscular y los traduzca en comandos, como abrir o cerrar una mano protésica.

"El control de reconocimiento de patrones requiere que los pacientes pasen por un largo proceso de entrenamiento de sus prótesis", dice He (Helen) Huang, profesor en el programa conjunto de ingeniería biomédica de la Universidad Estatal de Carolina del Norte y la Universidad de Carolina del Norte en Chapel Hill.

"Este proceso puede ser tedioso y lento. "Queríamos centrarnos en lo que ya sabíamos sobre el cuerpo humano", dice Huang, autor principal de un trabajo sobre el trabajo. "Esto no solo es más intuitivo para los usuarios, también es más confiable y práctico.

Los investigadores desarrollaron un modelo musculo esquelético genérico para el usuariO

Los investigadores colocaron sensores de electromiografía en los antebrazos de seis voluntarios sanos, siguiendo exactamente qué señales neuromusculares se enviaron cuando realizaron varias acciones con sus muñecas y manos.

Estos datos luego se usaron para crear el modelo genérico, que tradujo esas señales neuromusculares en comandos que manipulan una prótesis motorizada. "Cuando alguien pierde una mano, su cerebro se conecta en red como si la mano todavía estuviera allí", dice Huang.

"Entonces, si alguien quiere tomar un vaso de agua, el cerebro aún envía esas señales al antebrazo. Usamos sensores para captar esas señales y luego transmitir esa información a una computadora, donde se alimenta a un modelo musculo esquelético virtual. El modelo toma el lugar de los músculos, las articulaciones y los huesos, calcula los movimientos que tendrían lugar si la mano y la muñeca aún estaban completas.

Luego transmite esa información a la muñeca y la mano protésica, que realizan los movimientos pertinentes de forma coordinada.

Manera y en tiempo real y se asemeja más al movimiento fluido y natural. "Al incorporar nuestro conocimiento de los procesos biológicos detrás del movimiento generador, pudimos producir una nueva interfaz neuronal para prótesis que es genérica para múltiples usuarios, incluida una persona con amputación en este estudio, y es confiable en diferentes posturas del brazo", dice Huang.

¡No te pierdas nuestra pagina de Facebook!!