Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora G. Romero, M.G. Arenas, P.A. Castillo, A.M. Mora, P. García-Sánchez, J.J. Merelo Departamento de Arquitectura y Tecnología de Computadores
Evolución de redes neuronales artificiales para el diseño de
interfaces cerebro-computadoraG. Romero, M.G. Arenas, P.A. Castillo,
A.M. Mora, P. García-Sánchez, J.J. Merelo
Departamento de Arquitectura y Tecnología de Computadores
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Indice
I. Introducción
II. Autoregulación de Potenciales Corticales Lentos
III.Resultados experimentales
A.Descripción del algoritmo
B.Seleccción de parámetros
C.Preprocesamiento de datos
D.Resultados
I. Introducción
• Los interfaces cerebro-máquina son un conjunto de técnicas para controlar ordenadores con el cerebro.
• Enfocadas a personas con problemas de movilidad.• Basada en la detección de impulsos eléctricos del cerebro
mediante electroencefalograma.• Problema a resolver: mover un cursor en una pantalla.
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
I. Introducción Conjunto de datos de un concurso internacional sobre la materia.• Métodos empleados para resolver el problema:
– Algoritmos evolutivos.
– Modelos ocultos de Markov (HMM).
– Redes neuronales artificiales.
– Análisis lineales --> mejor resultado en la bibliografía.
– Métodos probabilisticos.
– Filtrado espacial.– Máquinas de soporte vectorial (SVM).
• Método basado en G-Prop: híbrido AE + QP.• Problema del sobreentrenamiento evitado eliminando QP.
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Indice
I. Introducción
II. Autoregulación de Potenciales Corticales Lentos
III.Resultados experimentales
A.Descripción del algoritmo
B.Seleccción de parámetros
C.Preprocesamiento de datos
D.Resultados
II. Autoregulación de Potenciales Corticales Lentos (SCP)
Conjunto de datos (Ia) facilitado por Niels Birbaumer de la Universidad de Tübingen: – Sujetos sanos mueven un cursor arriba y abajo mientras reciben
retroalimentación sobre sus SCP.– Ensayos de 6s, retroalimentación entre 2-5.5s, muestreo a 256Hz
x 3.5s x 6 canales = 5376 datos/ensayo.– Conjuntos de datos: entrenamiento 268 ensayos, test 293
ensayos.• Ganador del II concurso BCI: Brett Mensh, MIT, error 11,3% con
método de análisis lineal.• Mejor resultado basado en el uso de RNA: J. Sanchez, Univ.
Florida, error 19,8%.
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Indice
I. Introducción
II. Autoregulación de Potenciales Corticales Lentos
III.Resultados experimentales
A.Descripción del algoritmo
B.Seleccción de parámetros
C.Preprocesamiento de datos
D.Resultados
III.A. Descripción del algoritmo
Clasificación realizada mediante perceptrones multicapa (MLP) totalmente conectados.
Los MLPs son completamente diseñados mediante un Algoritmo Evolutivo (AE) que se encarga desde los pesos iniciales hasta la arquitectura de la red.
Operadores genéticos del AE:– Mutación aditiva, distribución gaussiana (0, 1).– Mutación multiplicativa, distribución uniforme [-2, 2].– BLX-alfa
• No se ha empleado validación cruzada puesto que no se ha utilizado ningún algoritmo de entrenamiento de RNAs para evitar el problema del sobreentrenamiento.
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Indice
I. Introducción
II. Autoregulación de Potenciales Corticales Lentos
III.Resultados experimentales
A.Descripción del algoritmo
B.Seleccción de parámetros
C.Preprocesamiento de datos
D.Resultados
III.B. Selección de parámetros.
Tamaño de población: 200 individuos, más ralentiza el proceso sin apenas producir mejoras de calidad.
Número de generaciones: 100, a partir de ahí la calidad de las soluciones permanece constante.
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
III.B. Selección de parámetros. Se probaron dos métodos diferentes:
– Tradicional repetición de experimentos con diferentes tasas.– Reproductor que autoajusta las tasas de aplicación (5%/gen).
Operadores de mutación:– Mutación aditiva: 0,34– Mutación multiplicativa: 0,5
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
III.B. Selección de parámetros.
Operador de cruce BLX-alfa:– Tasa de aplicación: 0,98– Alfa: 0,5
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
III.B. Selección de parámetros.
Arquitectura del MLP:– Una neurona en la capa de salida.– Conjunto de entrenamiento: sin neuronas en la capa oculta.– Conjunto de test: 2 neuronas en la capa oculta.
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Indice
I. Introducción
II. Autoregulación de Potenciales Corticales Lentos
III.Resultados experimentales
A.Descripción del algoritmo
B.Seleccción de parámetros
C.Preprocesamiento de datos
D.Resultados
III.C. Preprocesamiento de datos.
El conjunto original de datos tiene 6 canales de los cuales el 0 y el 1 son los más relevantes como puede verse en la clasificación por separado.
Utilizando sólo el canal 0 acelera el proceso de entramiento y mejora la generalización sobre el conjunto de test un 7,55%.
El preprocesamiento de los datos mediante la transformada discreta del coseno mejora la capacidad de clasificación (3,10%/7,04%).
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
Indice
I. Introducción
II. Autoregulación de Potenciales Corticales Lentos
III.Resultados experimentales
A.Descripción del algoritmo
B.Seleccción de parámetros
C.Preprocesamiento de datos
D.Resultados
III.D. Resultados.
Resultados promedio de 100 experimentos con diferentes semillas. Mejor porcentaje de error de clasificación sobre el conjunto de test
de la literatura: 8,53%. El canal 0 es el más relevante. Utilizarlo mejora a la vez los
tiempos de entrenamiento y la capacidad de clasificación. El preprocesamiento mediante la transformada discreta del coseno
mejora los resultados.
Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora
métodoentrenamiento test
x ± σ mejor x ± σ mejor
SPC 18,7 11,3
MLP 19,8
MLP+EA 7,20±2,06 5,97 11,77±1,47 8,53