Ponente
Descripción
El desarrollo de interfaces cerebro-computadora (BCI) ha permitido establecer nuevos esquemas de automatización basados en la interpretación de señales cerebrales. Estas tecnologías posibilitan la interacción directa entre el cerebro humano y dispositivos electrónicos, sin la intervención del sistema nervioso periférico, abriendo aplicaciones en control de prótesis, robótica bioinspirada y entornos virtuales.
Esta ponencia presenta un análisis del procesamiento de señales cerebrales enfocado a la automatización, mediante el uso de modelos computacionales para la clasificación de señales EEG en tareas de imaginación motora —como K-Nearest Neighbors (KNN), Support Vector Machines (SVM), Árboles de Decisión y Random Forest y técnicas de Deep Learning— que pueden emplearse para controlar dispositivos electrónicos y sistemas automatizados.
Se abordarán aspectos técnicos del registro de señales, preprocesamiento, extracción de características y clasificación, los desafíos asociados a la variabilidad intersujeto e intrasujeto en sistemas BCI, así como las implicaciones éticas y físicas que conllevan este tipo de estudios
Finalmente, se discutirán casos de aplicación práctica en entornos de automatización y asistencia controlados por actividad cerebral.