A INSTITUTO POLITECNICO NACIONAL ESCUELA SUPERIOR DE INGENIERIA MECANICA Y ELECTRICA Unidad Culhuacan SECCIÓN DE ESTUDIOS DE POSGRADO E INVESTIGACIÓN RECONOCIMIENTO DE ENFERMEDADES ( CREUTZFELDT-JAKOB, ALZHEIMER ) MEDIANTE DIMENSION FRACTAL Y ONDALETAS USANDO UNA RED NEURONAL ARTIFICIAL T E S I S Que para obtener el Grado en Maestría en Microelectrónica PRESENTA ING. ROSA MARIA RODRIGUEZ QUINTANAR ASESOR: DR. VOLODYMYR PONOMARYOV México D. F. Junio 2005
118
Embed
RECONOCIMIENTO DE ENFERMEDADES ( CREUTZFELDT-JAKOB ...
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
A INSTITUTO POLITECNICO NACIONAL
ESCUELA SUPERIOR DE INGENIERIA MECANICA Y ELECTRICA Unidad Culhuacan
SECCIÓN DE ESTUDIOS DE POSGRADO E INVESTIGACIÓN
RECONOCIMIENTO DE ENFERMEDADES
( CREUTZFELDT-JAKOB, ALZHEIMER )
MEDIANTE DIMENSION FRACTAL Y ONDALETAS
USANDO UNA RED NEURONAL ARTIFICIAL
T E S I S
Que para obtener el Grado en Maestría en Microelectrónica
PRESENTA
ING. ROSA MARIA RODRIGUEZ QUINTANAR
ASESOR: DR. VOLODYMYR PONOMARYOV
México D. F. Junio 2005
CGP14
2
RESUMEN/ABSTRACT
RESUMEN En la actualidad la electroencefalografía es una herramienta muy importante
para el diagnóstico, monitoreo y manejo neurológico para las diferentes
enfermedades del cerebro. Por esta razón, en esta tesis se propone un
reconocimiento de dos enfermedades, utilizando un solo canal de EEG,
determinando patrones del registro, con el propósito de encontrar una
herramienta de apoyo para el diagnóstico. Se ha realizado un reconocimiento
de cada enfermedad: Creutzfeldt-Jakob (ECJ) y demencia senil (Alzheimer EA),
aplicando la técnica de una Red Neuronal Artificial de Retropropagación
(Backpropagation).
Los métodos usados para la extracción de características son: la Dimensión
Fractal y la técnica de Ondaletas (Wavelets); logrando una reducción en los
patrones de entrada. Debido a que los archivos de las enfermedades contienen
alrededor de 2650 datos, que pueden incluir información no importante o ruido
inherente, han sido reducidos permitiendo realizar satisfactoriamente la función
de la Red Neuronal Artificial (RNA), optimizando el tiempo necesario en ambas
fases: entrenamiento y reconocimiento.
RESUMEN/ABSTRACT
ABSTRACT At the present time the electroencephalogram is a very important tool for the
diagnosis, monitoreo and neurological handling in the different diseases of the
brain. By such reason, this thesis deals with recognition of two diseases, using
a single channel of EEG, determining patterns in the registry, with the purpose
to find a tool of support in the diagnosis. It has been realized a recognition of
each a disease: Creutzfeldt-Jakob (DCJ) and senile dementia (Alzheimer DA),
applying the technique of Artificial Neuronal Network of type Backpropagation to
make his recognition.
Two methods of the extraction of characteristics were used: the Fractal
Dimension and the technique of Wavelets; obtaining a reduction in the input
patterns. So the archives of two diseases containing about 2650 data and
including non-significant information and artifacts have been reduced permitting
to realize satisfactory function of ANN optimizing needed time in both phases:
training and recognition.
4
INDICE
INDICE
CAPITULO 1. INTRODUCCIÓN
1.1 Introducción……………………………………………………………….......10
1.2 Definición del problema………………………………………………….......12
Figura 2.9. Funcionamiento básico de una red neuronal artificial...................32
Figura 2.10 Clasificación de redes ...............................................................34
Figura 2.11. Arquitectura de una red gamma…................................................40 Figura 2.12. Diagrama de la metodología.........................................................41
Figura 2.13. Diagrama esquemático de PCA y HMM.........................................42
Figura 2.14. Estructura de una red polinomial, con sus
CAPITULO 3. EXTRACCIÓN DE CARACTERÍSTICAS DE EEG Y DISEÑO DE
LA RED NEURONAL
Figura 3.1. Gráfico de espigas donde se aprecian los estados posibles de
descarga de la neurona.................................................................48
Figura 3.2. Segmento de longitud 1 en segmentos
de longitud L …………...................................................................50 Figura 3.3. Función Ondaleta madre …………………………………...............54
Figura 3.3. Análisis de una señal mediante las transformadas de Fourier,
Gabor y Ondaleta ………………………………..............................56
Figura 3.4. Proceso de la Transformada de Fourier ...…………………….......58
leucoencefalitis multifocal progresiva, enfermedad de Creuztfeld-Jakob,
esclerosis en placas y la enfermedad de Schilder.
♦ Enfermedades degenerativas: aquí el EEG se observa con deterioro
progresivo en forma de enlentecimiento difuso del trazo y la sustitución del
ritmo teta por el ritmo delta. En esta clasificación se encuentra la demencia
senil, demencia presenil, enfermedad de Alzheimer, enfermedad de Dic y
enfermedad de Parkinson.
♦ Encefalopatías metabólicas y tóxicas: sus causas son muy variadas,
desde un trastorno metabólico, déficit de oxígeno o glucosa, carencia
vitamínica y desequilibrio hidroeléctrico; por lo cual el EEG sufre
modificaciones. Estas son la anoxia como la anoxia hipóxica, anoxia
anémica y anoxia isquémica; la hipoglucemia, trastorno del equilibrio
hidroelectrolítico como la insuficiencia renal, carencias vitamínicas como la
encefalopatía de Gayet-Wernicke, enfermedades endocrinas, encefalopatía
hepática y la encefalopatía tóxica.
♦ Coma: la cual implica una alteración funcional que afecta el corteza
cerebral, donde el EEG aporta argumentos etiológicos, permitiendo seguir la
evolución para establecer un pronóstico. Desde el punto de vista del EEG,
se clasifica en estado I (coma vigil), estado II (coma profundo), estado III (
coma caro ), en el estado IV, coma de origen lesional y coma de origen
metabólico o tóxico.
27
CAPIYULO 2
Las enfermedades neuronales que se estudian en esta tesis son la enfermedad
de Creutzfeldt-Jakob y la enfermedad de Alzheimer. Se mencionan a
continuación de manera muy general.
2.4.1 ENFERMEDAD DE CREUTZFELDT - JAKOB
Las enfermedades por priones, también denominadas Encefalopatías
Espongiformes Transmisibles (EET) [5], son una familia de enfermedades
neurodegenerativas raras, con periodos de incubación largos, lentamente
progresivas, y universalmente fatales, que afectan a personas y animales. La
enfermedad de Creutzfeldt-Jakob (ECJ), conocida desde 1920, que afecta al
ser humano, también pertenece a este grupo de enfermedades. En 1957 se
describió la afectación de seres humanos por una enfermedad similar, llamada
Kuru. La gran variabilidad de presentación clínica de estas enfermedades por
priones requieren otros criterios más objetivos, como los hallazgos
anatomopatológicos, para poder clasificar las diversas enfermedades. De esta
forma, además de la ECJ y kuru, otras formas descritas de enfermedades
priónicas humanas incluyen la enfermedad de Gerstmann-Straussler-Scheinker
(GSS) el Insomnio Fatal (IF).
Todas estas enfermedades tiene dos características comunes: su naturaleza
transmisible y sus características anatomopatológicas, incluyendo la
vacuolización marcada de la sustancia gris del cerebro, que origina un aspecto
en esponja cuando se observa en el microscopio óptico; por ello, estas
enfermedades tiene en nombre común de encefalopatías espongiformes
transmisibles (EET). En las EET hay evidencias suficientes a favor de que el
agente causal sea una proteína resistente a proteasas (prión) y no un virus, que
sorprendentemente existe normalmente en el huésped, con una estructura algo
28
CAPIYULO 2
distinta ("prión sano"), aunque hay evidencias que indican que otras proteínas
(Dpl o doppel) también podría participar en estas enfermedades. Es clasificada
como una encefalopatía espongiforme subaguda y considerada como una
degeneración lenta del cerebro, la corteza cerebral presenta pérdida neuronal y
cambios espongiformes. Es posible observar trazos desorganizados,
observando ondas lentas delta, con o sin ondas agudas agregadas,
lateralizadas a un hemisferio. El cuadro clínico de una persona que muestra
esta enfermedad es deterioro intelectual.
Estas anomalías se muestran en el EEG hasta adquirir un aspecto en la fase
de estado: sucesión de elementos paroxísticos, relativamente amplios,
trifásicos, de breve duración, inferior a 250 ms, que se llevan a cabo con una
periodicidad cercana al segundo. Los paroxismos destacan en un trazado de
fondo casi inexistente y se detectan en todo el cuero cabelludo. Esta actividad
periódica cesa generalmente en la última fase de la enfermedad se muestra un
EEG (Figura 2.7) de una persona con actividad base muy pobre de esta
enfermedad.
Figura 2.7 Electroencefalograma de la enfermedad de Creutzfeldt - Jakob
29
CAPIYULO 2
2.4.2 ENFERMEDAD DE ALZHEIMER
La Enfermedad de Alzheimer (EA) es un desorden neurodegenerativo del
sistema nervioso central que comienza a mitad de la vida, y continua como una
severa demencia y termina con la muerte. Esta ocupa el cuarto lugar como
causa de muerte después del cáncer y la apoplejía. La EA es un desorden
genético por mutaciones en los genes. Es incurable y progresivo, debilitando al
paciente hasta la muerte.
Esta enfermedad da lugar a una atrofia intensa y difusa que predomina a
menudo en las regiones parietooccipitales. Las lesiones histológicas son de la
misma naturaleza que la demencia senil, más intensas y difusas. Clínicamente
la EA tiene un inicio precoz y una evolución más rápida que la demencia senil.
Las anomalías electroencefalográficas, son constantes y evidentes:
desorganización del trazado, sustitución del alfa por ritmos teta o delta y
aparición de anomalías paroxísticas.
Aparte de las pruebas genéticas la mayoría de las técnicas y las pruebas se
basan en cambios funcionales ocurridos en el proceso EA. Podemos considerar
varios grupos de ellas como son:
a. Técnicas de diagnóstico por la imagen;
b. Electroencefalografía de nueva generación;
c. Determinación de marcadores bioquímicos periféricos;
d. Pruebas funcionales de nervios periféricos.
Tres técnicas son las más empleadas para la EA: la resonancia magnética, la
tomografía de emisión de positrones y la tomografía de emisión de fotones
simples.
30
CAPIYULO 2
Resonancia Magnética Nuclear (RM ó RNM) es una técnica no invasiva.
Existen dos aplicaciones fundamentales, la espectroscopía (MRS, Magnetic
Resonance Spectroscopy), que proporciona un registro gráfico cuyos picos
informan de la concentración de determinadas substancias que contienen
grupos atómicos determinados, y la imagen (MRI, Magnetic Resonance
Imaging), sirve tanto para proporcionar informes metabólicos como
morfológicos.
Espectroscopía de Protones (ERM-H1) permite identificar y cuantificar
moléculas que se han considerado específicas de las neuronas o que
pertenecen a compuestos neurotransmisores o componentes de membranas.
Tomografía de Emisión de Positrones PET, Positron Emission Tomography)
y emisión de fotones (SPECT, Single-Photon Emission Computed
Tomography ) se basan en la introducción de moléculas marcadas
radiactivamente, de vida media muy corta, que emiten positrones o fotones que
son recogidos por un sistema de rastreo con detectores adecuados. Las
señales detectadas son analizadas y los datos procesados, produciéndose
registros de densidad y mapas de localización (imágenes cerebrales).
La EA es una fuente de alteraciones del EEG mediante el cual se analizan
adecuadamente frecuencias y amplitudes de ondas alfa y teta generadas en
ciertas regiones corticales ya que se correlacionan adecuadamente con
alteraciones clínicas, patológicas y bioquímicas. Los síntomas de EA que puede
presentar el paciente son: pérdida de memoria que afecta a la capacidad de
trabajar, dificultad para realizar tareas habituales, problemas con el lenguaje,
desorientación en cuanto al tiempo y el lugar, falta o deterioro del sentido
común, problemas con el pensamiento abstracto, pérdida de objetos, cambios
de ánimo o de comportamiento, cambios de personalidad y falta de iniciativa. El
31
CAPIYULO 2
EEG se define en términos de frecuencia, amplitud, ritmos y modelos, simetría o
asimetría y reactividad a estímulos sensoriales.
Actualmente existen varios métodos de análisis de señales que se aplican para
extraer información de las señales fisiológicas usando EEG. Entre ellos
podemos mencionar a las redes neuronales artificiales.
2.5 REDES NEURONALES ARTIFICIALES
La conexión entre neuronas sigue una cierta estructura (Figura 2.8), se
organizan en capas, las conexiones se llevan a cabo con las dendritas de otras
neuronas de capas contiguas. Se suelen distinguir en el cerebro humano 6 ó 7
capas.
Figura 2.8. Tejido nervioso de las capas superficiales de la corteza frontal de un humano, teñido con la técnica de Golgi (izquierda). Se observan identificados los principales tipos de célula presentes en la
corteza cerebral. Encima se aprecia el esquema de una neurona.
32
CAPIYULO 2
Las redes neuronales artificiales (RNA) tratan de asemejar el funcionamiento
del cerebro donde las neuronas [7] son unos procesadores de información
sencillos con canales de entrada de información (dendritas), un órgano de
cómputo (soma) y canales de salida de información (axón). Constituida por
nodos donde cada conexión se le asigna un peso numérico y el aprendizaje se
realiza con la actualización de los pesos.
Una característica que presenta la RNA es la de ser [8] capaz de aprender de la
experiencia, de generalizar casos anteriores a nuevos casos, de abstraer
características esenciales a partir de entradas que representan información
irrelevante. Esta técnica se aplica a múltiples áreas, con las siguientes ventajas:
Aprendizaje adaptativo, aprenden a llevar a cabo ciertas tareas
mediante un entrenamiento con ejemplos ilustrativos.
Autoorganización, usan su capacidad de aprendizaje para
autoorganizar la información que reciben durante el aprendizaje u
operación.
Tolerancia a fallas, la red puede aprender a reconocer patrones con
ruido, distorsionados o incompletos.
Operación en tiempo real, se adaptan debido a su procesamiento
paralelo.
2.5.1 Funcionamiento básico
La unidad básica [9] de la red neuronal es la neurona (Figura 2.9). Esta neurona
es un procesador elemental que procesa un vector de entrada y produce una
respuesta o salida única. Los elementos que tiene una neurona artificial son:
33
CAPIYULO 2
1. Las entradas reciben datos de otras neuronas
Figura 2.9. Funcionamiento básico de una red neuronal artificial
2. Los pesos sinápticos W . Establece la sinapsis a las entradas, se les
asigna un peso, el cuál se modifica durante el entrenamiento de la RNA
y donde se almacena la información que hará que la red funcione para
un propósito.
ij
3. Una regla de propagación. Se suman las entradas y los pesos
sinápticos, tomando en cuenta el valor de la información de cada una.
4. Una función de activación. El valor obtenido con la regla de
propagación, se filtra mediante una función de activación que es la que
da la salida de la neurona. De acuerdo para lo que se desee entrenar la
red se escoge la función de activación (Tabla 2.2).
34
CAPIYULO 2
Función Intervalo Gráfica
Identidad
xy =
[ ]
Escalón
( )( )xHy
xsigny== [ ]1,1
[ ]1,0 ++−
Lineal a tramos
>
−=1,1
11
xsiy
≤≤−<−
1,,1
xsixxsi
[ ]1,1 +−
Sigmoide
( )xye
tan1
=+
y x
1= −
1,1 +−+
Gaussiana
BxAey −=
Sinusoidal
Tabla 2.2. Funciones de activación
+∞∞− ,
[ ][ ]
1,0
[ ]1,0 +
[ ]1,1 +−( )φ+= wxAseny
Las neuronas se agrupan en capas, que son conjuntos de neuronas y según la
función que desempeñan reciben un nombre específico. Las cuales son:
• Capa de entrada. Reciben los datos para su procesamiento.
• Capas ocultas. Introducen grados de libertad. El número de ellas
puede depender del tipo de red y realiza gran parte del
procesamiento. • Capa de salida. Proporciona la respuesta de la red neuronal.
Estas se clasifican con respecto a su arquitectura y algoritmo o regla de
aprendizaje. De acuerdo a su arquitectura existen dos posibilidades:
unidireccional (no tiene retroalimentación) y recurrentes (Figura 2.10).
35
CAPIYULO 2
HACIA ADELANT E RECURRENT E Figura 2.10.Clasificación de redes
La clasificación de acuerdo a la regla de aprendizaje son:
Aprendizaje supervisado. Se proporciona a la red una serie de
ejemplos que consisten en unos patrones de entrada junto con la salida
deseada. Se entrena realizando ajuste de pesos para que la salida de la
red sea lo mas parecida a la esperada. Es por ello que en cada iteración
se ocupe alguna función que indique el error que comete la red.
Aprendizaje no supervisado o auto-organizado. Lo que hace la red es
reconocer regularidades en el conjunto de entradas, es decir, estima una
función de densidad de probabilidad ( )xp que describe la distribución de
patrones x en el espacio de entrada RN. No se presenta la respuesta
deseada.
Aprendizaje híbrido. Es una mezcla de las anteriores. Unas capas
tienen un aprendizaje supervisado y otras capas un aprendizaje de tipo
no supervisado.
Aprendizaje reforzado. Es un aprendizaje con características de tipo
supervisado y auto-organizado. No se proporciona una salida deseada,
36
CAPIYULO 2
pero si se le indica a la red en cierta medida el error que comete, aunque
es un error global.
El aprendizaje se convierte en el procedimiento de ajuste de los parámetros al
cuál se le conoce como regresión lineal. La Tabla 2.3 muestra los algoritmos de
aprendizaje más conocidos.
Regla de aprendizaje Arquitectura Algoritmo de aprendizaje Tareas
Supervisado. Corrección del error
Perceptrón o perceptrón multicapa
Retropropagación del error, ADALINE, MADALINE
Clasificación de patrones, aproximación de funciones,
predicción, control
Elman y Jordan recurrentes
recurrentes Retropropagación del error Síntesis de series temporales
Boltzman Recurrente Boltzman Clasificación de patrones
Competitivo
Competitivo
LVQ
Categorización intra-clase, compresión de datos
Red Art ARTMap Clasificación de patrones, categorización intra-clase
No supervisado Corrección del error
Red de Hopfield Aprendizaje de memoria asociativa
Memoria asociativa
Multicapa sin realimentación
Proyección de Shannon Análisis de datos
Competitiva Competitiva VQ Categorización, análisis de datos
SOM Kohonen SOM Categorización, análisis de datos
Redes ART ART1, ART2 categorización
Por refuerzo
Hebbian
Multicapa sin realimentación
Análisis de discriminante, análisis de datos, clasificación de patrones
Híbrido Corrección de error y
competitivo
Redes RBF
Algoritmo RBF
Clasificación de patrones, aproximación de funciones,
predicción, control
Tabla 2.3 Algoritmos de aprendizaje de las RNA más conocidas
37
CAPIYULO 2
Los métodos o reglas de aprendizaje son:
Corrección de error. La red inicial asigna pesos aleatoriamente. La red
se actualiza en un esfuerzo por ser congruente con los ejemplos. Para
ello se efectúan pequeños ajustes en los pesos y así disminuir la
diferencia entre los valores observados y predichos. La principal
diferencia con los algoritmos lógicos es la necesidad de repetir la fase de
actualización varias veces por cada uno de los ejemplos con el fin de
lograr convergencia. Es común en dividir el proceso en épocas. En el
caso del perceptrón la regla de actualización de peso resulta muy
sencilla. Si la salida esperada de la unidad de salida es única (O) y la
salida correcta debería ser T, el error se calcula de la siguiente manera.
Err = T – O. Si el error es positivo, aumenta O; si es negativo, disminuye
O.
Aprendizaje por propagación de error. Este aprendizaje se efectúa de
la siguiente manera: se presenta a la red las entradas de los ejemplos, y
si esta calcula un vector de salida que coincida con la deseada, termina
el proceso. Si existe un error, los pesos se ajustan para disminuirlo
evaluando sus consecuencias y dividirlas entre todos los pesos
contribuyentes. Este algoritmo es un método para distribuir la
contribución de cada uno de los pesos, tratando de reducir al mínimo el
error entre cada salida deseada y la salida obtenida por la red. En el nivel
de salida, la regla de actualización del peso es muy semejante a la regla
del perceptrón. Hay dos diferencias: en vez del valor de entrada,
utilizamos la activación de la unidad oculta ( ); y que la regla contiene
un término para el gradiente de la función de activación. Si Err es el error
del nodo de salida, entonces la regla de actualización de los pesos del
vinculo desde la unidad j hasta la unidad i es:
ja
( )iijjiji ingErraWW '×××+← α .(2.1)
38
CAPIYULO 2
donde es la derivada de la función de activación 'g g . Y α es una
constante denominada velocidad de aprendizaje.
Las redes más conocidas se describen a continuación de manera muy general:
Perceptrón. Es una red de prealimentación de un solo nivel. Con este
tipo de red solo se pueden representar funciones linealmente separables.
Esto significa que si el espacio de entrada se divide en dos a lo largo de
un limite definido por WI= 0, es decir, un plano en el espacio de entrada
con coeficientes definidos por los pesos. Cuando la cantidad de entradas
es n, el espacio de entrada es n-dimensional. Pero puede resultar difícil
visualizar la separabilidad lineal si n es grande.
Red de Hopfield. Utiliza conexiones bidireccionales con pesos
simétricos ( ); todas las unidades son tanto de entrada como de
salida; como función de activación, se utiliza la función escalón, los
únicos niveles de activación son
ijji ww =
1± . Esta red funciona como memoria
asociativa, luego de recibir capacitación con un conjunto de ejemplos, un
nuevo estímulo provocará que la red se estabilice en un patrón de
activación que corresponda al ejemplo del conjunto de capacitación que
más se parezca al estímulo.
Máquinas de Boltzman. Se utilizan pesos simétricos, pero son incluidas
unidades que no son ni de entrada ni de salida. También emplean una
función de activación estocástica, por ejemplo, la probabilidad de que la
salida sea 1 es determinada como una función de la entrada total
ponderada. Por lo tanto esta máquinas experimentan transiciones que se
asemejan a una búsqueda de fusión, o temple, simulando la
configuración que mejor se aproxime al conjunto de capacitación.
39
CAPIYULO 2
Red SOM. En este tipo de red el entrenamiento o aprendizaje es
diferente al de las redes con entrenamiento supervisado. A la red no se
le suministra junto a los patrones de entrenamiento, una salida deseada.
Lo que hará la red es encontrar regularidades o clases en los datos de
entrada y modificar sus pesos para ser capaz de reconocer estas
regularidades o clases. En cuanto al entrenamiento, este es un ejemplo
de red que utiliza un aprendizaje de tipo supervisado. Además, cada
neurona utiliza como regla de propagación una distancia de su vector de
pesos sinápticos al patrón de entrada. Otros conceptos importantes que
intervienen en el proceso de aprendizaje son los conceptos de neurona
dominante y vecindad de la misma. Un algoritmo de aprendizaje muy
usado con este tipo de redes es el algoritmo de Kohonen.
Red de Función de Base Radial (RBF). Este tipo de red se caracteriza
por tener un aprendizaje o entrenamiento híbrido. La arquitectura de esta
red se caracteriza por la presencia de tres capas: una de entrada, una
única capa oculta y una capa de salida.
Las áreas de aplicación de la RNA en el campo de la Medicina, es la siguiente:
Diagnóstico: detección de cáncer y patologías cardíacas a través de las
señales que se obtienen a partir de la instrumentación médica.
Analítica: en bioquímica se facilitan los análisis de orina, sangre, control
de diabetes, ionogramas y la forma de detectar condiciones patológicas a
través del análisis bioquímico.
Imágenes: el procesamiento de imágenes (RX, TAC, RNM, ecografías,
Doppler, etc.) mediante redes neuronales permitió establecer patentes
referidas a imágenes significativas de patologías antes no demostradas.
40
CAPIYULO 2
Farmacología: singular valor en el desarrollo de fármacos para el
tratamiento del cáncer. También han sido utilizadas para el proceso de
modelado de biomoléculas.
2.6 ANTECEDENTES DEL MÉTODO
En el estudio del EEG las señales obtenidas eliminan por filtrado las partes
indeseadas. Las diferentes ondas, se caracterizan por la frecuencia de sus
emisiones (ver página 14). En la actualidad existen diferentes sistemas de
detección y clasificación del EEG utilizando la técnica de redes neuronales.
El Grupo de Redes Neuronales del Instituto de Investigación Australiana para
la Inteligencia Artificial, con la cooperación del Departamento de Medicina
Cibernética e Inteligencia Artificial de la Universidad de Viena, han llevado a
cabo una investigación en la clasificación de datos de EEG de pacientes con
psicosis basados en el estado del sueño con el objetivo principal de establecer
el reconocimiento de las patentes y el proceso de señales como ayuda en
neurología mediante RNA. Existe un proyecto llamado SIESTA, realizado en
colaboración con 15 centros europeos. El objetivo fue establecer pautas en el
EEG realizado durante el sueño (polisomnografía), y poder establecer de esa
forma el diagnóstico de las alteraciones del sueño empleando RNA.
Un proyecto realizado en Austria, con el objeto de valorizar el diagnóstico de las
enfermedades neurológicas y psiquiátricas mediante el uso de RNA, que
clasifican e interpretan los datos del EEG, especialmente dedicado a el
diagnóstico de esquizofrenia, enfermedad de Parkinson, desórdenes del sueño,
epilepsia, etc, así como la detección de psicosis y enfermedades degenerativas.
41
CAPIYULO 2
Otro tipo de red utilizada [10] es la red neuronal competitiva y cooperativa, la
cual permite clasificar correctamente las respuestas asociadas a los estímulos
de entrada, enfocándose a la clasificación de potenciales auditivos de latencia
larga conocidos como onda P300, utilizando los coeficientes ondaletas como
posibles entradas a este sistema de clasificación. Tomando en cuenta esta
técnica, se han comparado diferentes tipos de redes: la red gamma junto con la
red de retropropagación y la red ADALINE.
La red gamma [11] proporciona una ventaja comparada con las demás, ya que
trabaja en tiempo real para procesamiento temporal, mediante un mecanismo
de memoria que tiene un periodo corto de almacenamiento. Hay diferentes
aplicaciones, una de ellas es crear una línea de retardo usando elementos
adaptivos dispersos, conteniendo así una estructura (Figura 2.11) que permite
estudiar el procesamiento de patrones variantes en el tiempo.
Figura 2.11. Arquitectura de una red gamma
42
CAPIYULO 2
Esta memoria gamma se puede manifestar como la estructura de un filtro
adaptivo independiente y como un caso especial de un filtro IIR, con una
estructura hacia adelante. Tiene la ventaja de ser programable ya que es
recursiva, estable y utiliza el algoritmo LMS.
Existen otras técnicas para la clasificación de la señal EEG; como es la técnica
de fractales [12] en pacientes epilépticos, que permite detectar o anticipar una
crisis epiléptica en el paciente, para llevar a cabo esta investigación se utilizó la
técnica de dimensión fractal; obteniendo un patrón reproducible y cuantificable,
para discriminar el periodo ictal y pre-ictal; permitiendo aplicar en tiempo real.
La dimensión fractal se calcula con base en su definición:
( )( )dL
D10
10
loglog
= .( 2.2 )
donde d es la distancia máxima de la secuencia de puntos con respecto al
primer punto; L es la longitud total de la curva o es la suma de las distancias
entre los puntos sucesivos. Logrando que esta técnica pueda ser una
herramienta computacional para determinar la crisis epiléptica (Figura 2.12 ) así
como sus aplicaciones clínicas.
Figura 2.12. Diagrama de la metodología usando dimensión fractal
43
CAPIYULO 2
Existen trabajos en el análisis de datos de EEG utilizando fractales, uno de ellos
es el análisis fractal de datos de EEG multicanal en pacientes con desorden
afectivo, permitiendo determinar cambios patológicos y poder realizar una
terapia. Estas terapias permiten manejar el caos en el cerebro mediante el uso
de compuestos químicos (fármacos) o campos físicos (choques,
magnetoterapia, fototerapia).
La clasificación de patrones de EEG juega un papel importante en la actualidad,
un método alternativo es usando Cadenas Ocultas de Markov (HMM);
permitiendo utilizar datos de EEG multivariantes [13] en el tiempo los cuales
contienen ruido.
Al utilizar esta técnica, se combinan el análisis de componentes principales
(PCA) y las HMM; para este procedimiento se utilizaron como patrones los
datos del movimiento del brazo hacia la derecha y hacia la izquierda. Esta
herramienta es usada en reconocimiento y biología computacional, describiendo
una HMM como una red dinámica Bayesiana [14] que puede representar
distribuciones de probabilidad sobre secuencias de observaciones (Figura
2.13).
Figura 2.13. Diagrama esquemático de PCA y HMM
44
CAPIYULO 2
Un método innovador es usar la técnica basada en una red neuronal, mediante
polinomios, la cual permite extraer reglas de clasificación polinomial de una
señal electroencefalográfica. Para representar esta regla de clasificación en
forma analítica, usamos redes neuronales polinomiales entrenadas por el
método de manejo de grupo de datos (GMDH). Se utilizaron datos clínicos de
EEG tomados de un paciente con Alzheimer [15] que incluye datos normales y
datos con ruido. Estos datos son visualmente identificados por médicos, estas
reglas de extracción polinomial verifican el dato de EEG permitiendo la
clasificación correcta de un 72%. Utilizan reglas hacia adelante de las redes
neuronales. Se muestra la estructura de una red neuronal polinomial (Figura
Los resultados de la transformada son los coeficientes C, que son función de la
escala y la posición (Figura 3.6).
Figura 3.6. Proceso de la Transformada Ondaleta
Multiplicando cada coeficiente por la Ondaleta apropiadamente escalada y
desplazada permite la reconstrucción de la señal. Las escalas más altas
corresponden a las Ondaletas más finas. Mientras más fina la Ondaleta, es más
larga la porción de la señal con la cual va a ser comparada, y por lo tanto las
características de la señal a medir son las más anchas. Entonces, hay una
60
CAPIYULO 3
correspondencia entre las escalas de la Ondaleta y la frecuencia: escalas bajas - Ondaleta comprimida - detalles que cambian rápidamente- alta
frecuencia y escalas altas – Ondaleta fina – características de cambio lento –
baja frecuencia. En la presente tesis, se han utilizado dos técnicas de reciente
aparición para el tratamiento de la señal de EEG:
• Transformada Ondaleta
• Dimensión fractal
3.3 DISEÑO DE LA RED NEURONAL
En esta parte se describe una técnica estándar usada para la investigación para
el entrenamiento de la RNA mediante el algoritmo de aprendizaje de
retropropagación. La arquitectura de la RNA utilizada se muestra en la Figura
3.7.
Figura 3.7. Estructura de una red neuronal de retropropagación
capa oculta
capa de salida
capa de entrada
61
CAPIYULO 3
A continuación se muestra el algoritmo de entrenamiento [22]:
1. Se inicializan los pesos de la red con datos pequeños
2. Se presenta un patrón de entrada
pnpp xxx K1= .( 3.18 )
y se especifica la salida deseada
md dddy K,, 21= .( 3.19 )
3. Se calcula la salida actual de la red y. Mediante los pasos
siguientes:
myyy K,, 21
a. Se calculan las entradas netas para las neuronas.
Para una neurona j oculta
∑=
+=N
i
hipi
nji
Npj xwnet
1θ .( 3.20 )
donde se refiere a la capa oculta, h p el p-ésimo vector de
entrenamiento y j a la j-ésima neurona oculta. El término θ es
una entrada más.
b. Se calculan las salidas de las neuronas ocultas
( )hpj
hjpj netfy = .( 3.21 )
c. Se realizan los mismos cálculos para obtener las salidas de las
neuronas de salida.
( )00
0
1
00
pkkpk
kpj
L
jkjpk
netfy
ywnet
=
+= ∑=
θ .( 3.22 )
4. Calcular los términos de error para todas las neuronas.
Si la neurona es una neurona de la capa de salida, el valor delta es k
62
CAPIYULO 3
( ) ( )0'00pkkpkpkpk netfyd −=δ .( 3.23 )
donde
( )jknetjkk e
netf −+=
11
es una función sigmoidal y su derivada es
( ) ( )pkpkkkk yyfff −=−= 11 00'0 .( 3.24 )
por lo que los términos de error para las neuronas quedan
( )pkpkpk yd −=0δ .( 3.25 ) para la función sigmoidal queda
( ) 001 kjk
pkpipihpj wxx ∑−= δδ .( 3.26 )
5. Actualización de los pesos
Comienza por las neuronas de salida y se recorre hacia atrás hasta
llegar a la capa de entrada, ajustando los pesos de la siguiente forma
Para los pesos de la capa de salida
( ) ( ) ( )( ) pjpkkj
kjkjkj
ytw
twtwtw00
000
1
11
αδ=+∆
+∆+=+ .( 3.27 )
y para los pesos de las neuronas de la capa oculta
( ) ( ) ( )( ) pt
hpj
hji
hji
hji
hji
xtw
twtwtw
αδ=+∆
+∆+=+
1
11 .( 3.28 )
6. Se repite el proceso hasta que el término de error cumpla
∑=
=M
kpkpE
1
2
21 δ .( 3.29 )
y resulta ser aceptable cuando el error sea aceptable para cada uno de
los patrones aprendidos.
63
CAPIYULO 3
Una vez que la red se ha entrenado puede utilizarse para cumplir con la
aplicación que se le encomendó al inicio de su diseño. Si se le proporcionan a
la red casos para los que se desconoce la respuesta correcta, la red recordará
todos los casos aprendidos, y dará una salida de acuerdo a todos ellos.
Una de las aplicaciones más utilizada de las redes neuronales, es el
reconocimiento o clasificación de patrones aprovechando la capacidad de
generalización; la cual permite aprender una serie de modelos originales de
diferente clase, para después ser capaz de determinar la clase a la que
pertenecen otras entradas distintas de los patrones aprendidos.
Para permitir el control de convergencia en una RNA se utiliza en la superficie
de error con incrementos pequeños de los pesos un recorrido, ya que se tiene
información local de la superficie y se ignora la posición del punto mínimo. Si
se llevará a cabo con incrementos grandes, se corre el riesgo de pasar por
encima del punto mínimo sin conseguir estacionarse en él. Se puede
recomendar el disminuir el valor α a medida que disminuye el error durante la
fase de aprendizaje. Este número debe estar entre 0.05 a 0.25 para asegurar
que la red se aproxime a una solución. También se debe de tener en cuenta la
posibilidad de convergencia hacia alguno de los mínimos locales que exista en
la superficie de error, ya que una vez que la red se asienta en un mínimo sea
local o global, cesa el aprendizaje, aunque el error siga siendo alto, si se ha
alcanzado un mínimo local. El tener un valor pequeño de α significa que la red
realizará un gran número de iteraciones; si la constante es muy grande, los
cambios de pesos avanzan muy rápido por la superficie de error, con riesgo de
saltar el mínimo y estar oscilando alrededor de él pero sin alcanzarlo. La
velocidad de convergencia del algoritmo, se controla a través de la tasa de
aprendizaje α .
64
CAPIYULO 3
Para determinar el número de neuronas o capas de una red dependerá del
problema (Figura 3.8), y con respecto al número de capas también dependerá
de la naturaleza de la aplicación. El número de neuronas ocultas intervienen en
la eficacia de aprendizaje y la generalización de la red, pero no existe ninguna
regla que indique el número óptimo, ya que en cada problema se debe probar
con distintos números de neuronas para escoger el mejor.
N
N
N
N
xxxxxxxxxxxxxxxx
4434241
3333231
2232221
1131211
K
K
K
K
N
N
N
yyyyyyyyy
33231
22221
11211
ˆˆˆˆˆˆˆˆˆ
K
L
K
Predicción
Entradas Salidas
Nuevos datos4 entradas y N casos
Salidas estimadas3 salidas y N casos
Figura 3.8. Diseño de una red en base a su arquitectura
Mediante diferentes experimentos el número de neuronas en la capa oculta son
menos de la mitad de la suma del número de entradas más el de las salidas. Si
no es suficiente esta cantidad de neuronas ocultas, porque el entrenamiento es
pobre, se incrementan las neuronas y se entrena nuevamente.
Es conveniente añadir ruido a los pesos a través de ejemplos que permitan
continuar el proceso cuando se conoce que el entrenamiento ha caído en un
mínimo local. Se debe repetir este proceso hasta conseguir que los parámetros
sean satisfechos. El tiempo crece exponencialmente de acuerdo a número de
entradas. Guardar al menos el 10% de los datos (entradas y salidas) para hacer
pruebas de la eficiencia de la red permite que sea válida para la aplicación.
65
CAPIYULO 3
3.4 CONCLUSIONES Al analizar los algoritmos de extracción de características de EEG, se han
seleccionado la DF y la Transformada de Ondaletas. Se seleccionó la DF con
base en la característica de ser una medida relativa de un número de bloques
que forman un patrón, además de que se toma como una técnica alterna para
una señal de EEG en el dominio del tiempo y permite ser una herramienta
rápida con base en su programación para señales no estacionarias. Otro método analizado es la Transformada de Ondaleta, para las señales de
EEG se usará la Transformada Discreta, porque cualquier señal real procesada
por una computadora debe ser una señal discreta. Un punto importante a
discutir es como seleccionar las funciones madre, que serán comparadas con la
señal, ya que la función Ondaleta debe tener cierta forma que se quiere
identificar en la señal original. Sin embargo, debido a restricciones matemáticas,
no todas las funciones se pueden usar como Ondaletas.
Para la fase de reconocimiento, se usan las técnicas de RNA, ya que son
herramientas robustas y económica computacionalmente para el procesamiento
de señales en tiempo real. Debido a sus características, el mejor resultado que
se obtiene de una RNA en su fase de entrenamiento se obtiene cuando se
presenta información nunca vista por la red, y pueda clasificarlos o aproximarlos
con el ajuste del mínimo error.
66
CAPITULO 4
CAPITULO 4
RESULTADOS OBTENIDOS
4.1 ADQUISICIÓN DE DATOS
Los datos analizados fueron proporcionados por el CIDAT (Centro de Fármaco
Vigilancia), mediante sus laboratorios Psicofarma y Alpharma. Las señales de
EEG fueron obtenidas de acuerdo al estándar internacional 10-20 de 16 canales
usando un sistema DigiTrack™ hecho en Poland por P.I.M. ELMIKO, Warsaw.
Las señales fueron filtradas con un filtro pasabandas de 0.5 –70 Hz, con una
frecuencia de muestreo de 128 Hz. Las personas fueron voluntarios sanos y
personas que padecen la enfermedad Creutzfeld-Jakob (ECJ) y Alzheimer (EA).
Se cuentan con 5 archivos digitalizados mediante un ADC de 12 bits con una
duración de 1-20 minutos y almacenados en una memoria PC.
De estos 5 archivos, 2 de ellos son con diagnostico de la enfermedad de ECJ,
sus edades se encuentran entre 50-68 años, sexo femenino y masculino. Los
pacientes que padecen de la enfermedad de EA son 2 pacientes con edades
entre 75 y 82 años, de sexo masculino. Por último, el archivo restante es de una
persona sana con 60 años sexo masculino.
67
CAPITULO 4
Se utilizó un solo canal de EEG, con una duración aproximadamente entre 100-
300 milisegundos de duración, repitiéndose a un intervalo de 0.7-1.5 segundos
para los pacientes de ECJ y en los pacientes de EA se toman los registros con
una duración de 8 segundos. Cada registro de EEG consiste de 2345 datos
aproximadamente, aunque algunos archivos varían de tamaño.
Se presentan (Figura 4.1) los archivos de los pacientes con las enfermedades
ECJ y EA, que se estudian en este trabajo, así como un archivo de una persona
sana.
a) Paciente 1
c) Paciente 3
b) Paciente 2
d) Paciente 4
68
CAPIYULO 4
e) Paciente 5
Figura 4.1 Señal de EEG para pacientes con ECJ a) y b), paciente con EA c) y d) y paciente sano e)
Debido a que los archivos son muy extensos y presentan ruido junto con los
datos, se extraen características de cada señal de EEG, para realizar un
entrenamiento de la RNA de aprendizaje supervisado. Se han aplicado dos
métodos de extracción de características a la señal de EEG para ambas
enfermedades, que se describen a continuación.
4.2 EXTRACCIÓN DE CARACTERÍSTICAS EN EEG
MEDIANTE DIMENSION FRACTAL
Cuando la complejidad de la curva llega a 2 se toma como un plano. Para
calcular la dimensión fractal ( DF ) de la señal de EEG, se usó la curva del
algoritmo de Katz, la cual se expresa mediante la ecuación:
( )
( )nLd
nDF
1010
10
loglog
log
+
= .( 4.1 )
69
CAPIYULO 4
la cual nos permite normalizar la señal en forma cuantitativa y conocer la
complejidad de la misma. Se puede observar el diagrama de flujo (Figura 4.2)
del algoritmo de Katz, el cual fue implementado para calcular la DF, permitiendo
expresar la señal de EEG en forma numérica.
Inicio
Introduce datosde archivo
Calcula minimos (ymin),máximos(ymax) y
longitud(n)
Si n<2o ymin=ymaxo
n=1
longitud=1
SI
NO
calcula longitud de la curva2
minmax1
1
−+
−+=
promedioyy
nlongitudlongitud
calcula la dimensión fractal
( )( )( )
−
+=1*2log
log110
10
nlongitudd
Fin
Figure 4.2. Diagrama a bloques del algoritmo de dimensión fractal
La aplicación de la DF en una señal de EEG se realiza de la siguiente manera,
se desarrolla un algoritmo que calcula mediante un conjunto de W muestras en
n subintervalos (tomando en cuenta que la señal tiene 2345 muestras
aproximadamente) con un traslapamiento de 20 puntos al final, mostrando así
un total de muestras de 160, reduciendo considerablemente el número de
muestras originales. Cabe mencionar que el número total de muestras
obtenidas de la DF puede variar, es decir, se pueden calcular un total de
70
CAPIYULO 4
muestras pequeño o una cantidad mayor. Este criterio se decide si se requieren
mayor cantidad de muestras para el reconocimiento de la enfermedad. Solo
falta aclarar, que no se pueden obtener el mismo número de muestras o datos
que la señal original de EEG de cada enfermedad. En los intervalos para cada
DF de la señal de EEG se observa una normalización de acuerdo a la medida
cuantitativa obtenida y una reducción del número de muestras, así como la
eliminación de ruido y datos no importantes para la enfermedad.
En la Figura 4.3 se muestra la DF calculada para los pacientes con ECJ con
800 muestras, en 20 segundos del EEG y de acuerdo al sistema 10-20 con un
montaje en el canal T5-O1, ya que esta enfermedad altera el ritmo alfa. Para
ambos pacientes se realizó la toma de la señal de EEG con el mismo tipo de
montaje.
a) Paciente 1 con ECJ
71
CAPIYULO 4
b) Paciente 2 con ECJ
Figura 4.3 Dimensión fractal para pacientes con ECJ
Al calcular la DF a la señal del paciente 1, se normaliza tomando un valor
máximo en la complejidad de la señal de EEG de 1.104532, reduciendo a 160
datos. Obteniendo una ventaja: eliminar ruido de la señal de EEG sin pérdida de
información. Para el paciente 2, la DF calculada para medir la complejidad de la
señal de EEG es 1.074775, lo cual demuestra que son datos totalmente únicos
y la cantidad de datos no cambia, es decir, se obtienen los 160 datos.
En la figura 4.4 se muestra la DF calculada para los pacientes con EA con 800
muestras, en 80 segundos de EEG y de acuerdo al sistema 10-20 con un
montaje en el canal P3 - Fz, ya que esta enfermedad altera el ritmo alfa y beta.
Para ambos pacientes se realizó la toma de la señal de EEG con el mismo tipo
de montaje y tomando la alteración en el ritmo beta principalmente.
72
CAPIYULO 4
a) Paciente 3 con EA
b) Paciente 4 con EA
Figura 4.4 Dimensión fractal para pacientes con EA
Aplicando el algoritmo propuesto de la DF para el paciente 3, su normalización
obtenida es de 1.071354 para 160 muestras o coeficientes resultantes, que
73
CAPIYULO 4
formarán parte de los datos de entrada en la RNA. Para el paciente 4, la DF
resultante de toda la señal de EEG es 1.074011, es posible obtener cada valor
de la DF en el intervalo propuesto, es decir cada 20 muestras de la señal, se
obtienen valores de la DF que muestran la complejidad y eliminan ruido que
viene incluido en la señal original, quedando así datos característicos de la
enfermedad.
En la Figura 4.5 se calcula también la DF para una persona con EEG normal
con 800 muestras , en 80 segundos del epoch de EEG y de acuerdo al sistema
10-20 con un montaje en el canal T5 - O1 con respecto al EEG de EA
utilizando el canal P3-Fz, observando de esta manera la diferencia entre estos
archivos principalmente.
Figura 4.5 Dimensión fractal para paciente sano
74
CAPIYULO 4
El valor de la DF de la persona sana de toda la señal de EEG es 1.109839,
como se puede observar, para los pacientes con cada enfermedad y para la
persona sana, se obtienen valores diferentes al aplicar el algoritmo propuesto,
lo que permite que sea única e irrepetible. Esto se obtiene por las
características de los fractales, logrando ser una herramienta de apoyo en el
análisis de las señales biomédicas.
Otro método que permite extraer características es con la utilización de la
Transformada de Ondaletas, tomando esta técnica como un filtrado, es decir,
solo elimina ruido que no afectan a la señal para su estudio.
4.3 EXTRACCIÓN DE CARACTERÍSTICAS EN EEG
USANDO DESCOMPOSICIÓN DE ONDALETA
El efecto de la Transformada Ondaleta [16] es el de filtrar la señal mediante un
banco de filtros de dos tipos, paso alto o detalles, y paso bajo o aproximación.
El número de veces que es filtrada la señal se determina por el nivel de la
descomposición. Para reducir el ruido de la señal, la idea básica es eliminar los
componentes obtenidos en la transformad que está por debajo de un cierto
umbral, o multiplicarlos por un cierto factor de ponderación, antes de llevar a
cabo la transformada inversa. Es en estos elementos, el umbral o la
ponderación, donde se encuentran las diferencias más significativas entre la
mayoría de métodos propuestos en trabajos anteriores con esta aplicación.
La característica que ofrece esta transformada es conocer las frecuencias que
componen una señal en cada instante con las siguientes resoluciones:
75
CAPIYULO 4
• Para las altas frecuencias, se obtiene una resolución en el tiempo
que permite su exacta localización temporal, perdiendo resolución
frecuencial.
• Para las bajas frecuencias, se conoce su frecuencia perdiendo
resolución temporal.
El principio de la Transformada de Ondaleta se puede observar en la Figura
4.6, que indica la forma de una descomposición en frecuencias bajas y altas.
Señal original
Sub-banda pasabajas Sub-banda pasaltas
Pasa-bajas Pasa-altas
...... ...
NIVEL 1
NIVEL 2
Figura 4.6 Descomposición Ondaleta de una señal
La señal de EEG, es una señal no estacionaria, y parte de la información más
importante se encuentra en el momento en el que aparece cada componente.
De acuerdo a su naturaleza, es importante y fundamental localizar en el tiempo
las componentes de su frecuencia (Figura 4.7).
a) tiempo-frecuencia b) tiempo-escala
Figura 4.7 Representación tiempo-frecuencia y tiempo-escala
76
CAPIYULO 4
Esta señal es de baja frecuencia e intrínsecamente no estacionaria. A ella se
suman, ruidos, que por lo regular son señales de frecuencias más altas, o bien
señales patológicas como: focos epilépticos. La gran ventaja de usar la
Transformada Ondaleta se encuentra en la capacidad de localizar con exactitud
en el tiempo estas últimas componentes no deseadas, y además dar a conocer
la frecuencia de las señales de frecuencias bajas, que son las que aportan
mayor información acerca del estado cerebral. La elección de la familia (Figura
4.8) delimita las probabilidades de éxito de la transformada. Cuanto más
parecida sea la función elegida a las componentes que se desean localizar,
mejores serán los resultados.
Familia Biorthogonal
Familia Coiflet
Familia Symlet
Figura 4.8. Ondaletas madre más parecidas a una señal de EEG
77
CAPIYULO 4
De todas las familias de funciones Ondaleta disponibles, se han utilizado para la
experimentación la Coiflet, Symlet y la Biorthogonal. Esta elección se debe a
las características de cada familia, como es si son ortogonales, su función
Ondaleta madre, su parecido a las señales de EEG para las enfermedades de
ECJ y EA, su nivel de descomposición y si permite obtener los coeficientes
aproximados y detallados, ya que algunas familias no permiten esta
descomposición. Se han obtenido los coeficientes aproximados de cada
paciente, esto es debido a que en una señal EEG, los datos más importantes se
encuentran en las frecuencias bajas.
La obtención de las características de cada Ondaleta utilizada para su análisis
se muestra en las Figura 4.9 a 4.11.
Paciente 1 con ECJ. Nivel de descomposición: 3 Subbanda:Pasabajos
78
CAPIYULO 4
Paciente 2 con ECJ. Nivel de descomposición: 3 Subbanda:Pasabajos
c) Paciente 3 con EA. Nivel de descomposición: 3 Subbanda:Pasabajos
79
CAPIYULO 4
d) Paciente 4 con EA. Nivel de descomposición: 3 Subbanda: Pasabajos
Figura 4.9 Coeficientes aproximados utilizando la familia Coiflet
Se utiliza la familia Coiflet de orden 1 a orden 5, debido a la forma de su
Ondaleta madre parecida a la señal de EEG para los 4 pacientes en la Figura
anterior, se aplicará un umbral para la obtención de características, y se
mencionará más adelante la manera de encontrar este umbral.
Se utilizaron los 5 tipos de orden con las que cuenta la familia. La cantidad de
orden es una limitante y es inherente a ella. El número de características
obtenidas por cada paciente es de 100, observando una reducción de datos, lo
que explica, reducción de el ruido en los archivos de EEG de cada paciente. Se
tomaron 800 datos originales de cada paciente EEG. Por lo tanto, reduce la
cantidad de datos y se elimina el ruido.
80
CAPIYULO 4
a) Paciente 1 con ECJ
b) Paciente 2 con ECJ
81
CAPIYULO 4
c) Paciente 3 con EA
d) Paciente 4 con EA
Figura 4.10 Coeficientes aproximados utilizando la familia Symlet de orden 3
82
CAPIYULO 4
En la Figura 4.10 se observan los coeficientes de aproximación al utilizar la
familia Symlet, el uso de esta familia se debe al parecido con la señal de EEG y
esta tiene un orden N, es decir, puede seleccionarse cualquier número deseado
sin restricciones.
También se aplica un umbral para el orden más adecuado. Se propone el orden
2,4,6 y 7 para su análisis. No se propone un orden mayor, ya que sería más
tardado. Se obtienen alrededor de 100 coeficientes característicos, los cuales
hacen única a cada señal de cada paciente.
a) Paciente 1 con ECJ
83
CAPIYULO 4
b) Paciente 2 con ECJ
c) Paciente 3 con EA
84
CAPIYULO 4
c) Paciente 4 con EA
Figura 4.11 Coeficientes aproximados utilizando la familia Biorthogonal 1.1, 1.5, 2.8, 3.7, 3.9
La obtención de los coeficientes aproximados utilizando la familia Biorthogonal
como se puede ver en la Figura 4.11, tiene ciertas restricciones como son el
orden que van desde 1.1, 1.3, 1.5, 2.2, 2.4, 2.6, 2.8, 3.1, 3.3, 3.5, 3.7, 3.9, 4.4,
5.5 y 6.8. Los últimos 3 no se toman en cuenta porque no generan los
coeficientes de aproximación. El orden utilizado para cada familia fue de un
nivel 3. Las utilizadas son: 1.1, 1.5, 2.8, 3.9. Se utiliza la transformada Ondaleta
para obtener las aproximaciones de la señal, a distintos niveles, a continuación
se aplica el umbral [17] mediante la ecuación
( )σδ ˆlog2 N= .( 4.1 )
la reducción del ruido o artefactos de forma no lineal. Donde N es el número
total de muestras contenidas en la señal de EEG de cada paciente y σ̂ es la
media de los datos de la señal de EEG
85
CAPIYULO 4
( )( )6745.0
,ˆ
jiCmedian=σ .( 4.2 )
donde representa los coeficientes de aproximación obtenidos mediante
la Transformada Ondaleta. Para usar este método se toma en cuenta que las
señales utilizadas son de larga duración, como la señal de EEG. En la Figura 4.
12 se muestran los distintos experimentos con los archivos de los pacientes,
tomando el umbral y la familia de Ondaletas adecuado. Al aplicar el umbral, la
familia Coiflet resultante fue la Coiflet 5. Se observa esta familia con un nivel
5. Se aplica el mismo nivel para cada paciente. Observando así, que el más
adecuado es nivel 5 para la aplicación en la RNA, debido al parecido de la señal
original y la eliminación de ruido.
( jiC , )
a) paciente 1: ECJ. Subbanda:Pasbajos
86
CAPIYULO 4
b) paciente 2: ECJ. Subbanda:Pasabajos
c) paciente 3: EA. Subbanda:Pasabajos
87
CAPIYULO 4
d) paciente 4: EA. Subbanda:Pasabajos
Figura 4.12 Señal sin ruido utilizando descomposición Ondaleta con la familia coiflet 5 con un nivel de descomposición 5 para pacientes con ECJ y EA
Se realiza la descomposición (Figura 4.13) de la señal de EEG mediante la
transformada Ondaleta, usando la familia Symlet con un nivel 3.
a) paciente 1: ECJ
88
CAPIYULO 4
c) paciente 2: ECJ
d) paciente 3: EA
89
CAPIYULO 4
d) paciente 4: EA
Figura 4.13 Señal sin ruido utilizando descomposición Ondaleta con la familia Symlet 7 con un nivel de descomposición 3 para pacientes con ECJ y EA
La descomposición siguiente (Figura 4.14) se realiza con la familia Biorthogonal
de acuerdo al umbral mencionado anteriormente; los resultados se muestran en
las gráficas siguientes. Presenta una observación óptima de los características.
Se aplica un nivel 6 de descomposición, debido a la limitante de cada familia.
90
CAPIYULO 4
a) paciente 1: ECJ
b) paciente 2: ECJ
91
CAPIYULO 4
c) paciente 3: EA
a) paciente 4: EA
Figura 4.14 Señal sin ruido utilizando descomposición Ondaleta con la familia Biorthogonal 3.9 con un nivel de descomposición 6 para pacientes con ECJ y EA
92
CAPIYULO 4
Los coeficientes aproximados obtenidos de cada paciente, de acuerdo a la
aplicación de las Ondaletas, se consideran como patrones de entrada. Estos
vectores de entrada tienen menor cantidad de información, tomando un tamaño
de 100 valores para cada entrada y poder realizar la aplicación de la RNA.
Concluyendo, serán 100 coeficientes utilizados en la entrada de la RNA, y
tomando solamente la familia Biorthogonal 3.9, ya que presenta una mejor
reducción de ruido, así como un nivel de descomposición adecuado y un mayor
parecido con la señal de EEG con respecto a las otras dos familias estudiadas
en este tesis.
4.4 RED NEURONAL ARTIFICIAL
BACKPROPAGATION
(FASE DE ENTRENAMIENTO Y FASE DE PRUEBA)
El proceso completo para la fase de entrenamiento se puede visualizar
mediante el siguiente diagrama (Figura 4.15) en donde se expresa el diagrama
de bloques la tarea realizada de manera muy general. La arquitectura de la
RNA de retropropagación al inicio de los distintos experimentos, se construye
tomando en los datos de entrada y utilizando el primer algoritmo de extracción,
la DF. Se propone 1 capa en la capa de entrada, 8 capas ocultas y 3 capas de
salida, donde dos de ellas indican la enfermedad a la que corresponde y la
tercera que es una persona sana.
93
CAPIYULO 4
EXTRACCIO N DECARACTERISTICAS
Dimensión FractalWavelets
...
[ ]Nxxxxxxx K654321
N
N
N
yyyyyyyyy
33231
22221
11211
ˆˆˆˆˆˆˆˆˆ
K
L
K
160 neuronas de entrada usandoDimensión Fractal
100 neuronas de entrada usandotécnica de wavelets
CAPA DE ENTRADA
18 neuronas
CAPA O CULTA
3 capas de salida estimada
CAPA DE SALIDA
Figura 4.15 Diagrama a bloques del proceso de la red neuronal en forma general
Se realiza la fase de entrenamiento utilizando una función de activación de tipo
sigmoidal ya que es una función continua y diferenciable, proponiendo un
intervalo de aprendizaje de 1.0=α y un error de 0.005. El comportamiento de
la red se puede observar de acuerdo a su gráfica de error (Figura 4.16), en
donde se indica si su convergencia es rápida o lenta
94
CAPIYULO 4
a) capa oculta con 8 capas b) Capa oculta con 13 capas
Figura 4.16 Gráfica de error
Los porcentajes obtenidos en la fase de reconocimiento son 78% y 89%
respectivamente, debido a esto, se modifica el número de capas ocultas,
tomando en cuenta la capacidad de generalización se usan 18 capas, y el
intervalo de aprendizaje es 15.0=α .
Se puede observar en la gráfica de error (Figura 4.17) con los parámetros
modificados, un porcentaje aceptable de reconocimiento del 97%. Por lo tanto,
este es el mejor resultado utilizando DF como algoritmo de extracción de
características.
Figura 4.17 Gráfica de error con 18 capas ocultas
95
CAPIYULO 4
Se realiza la fase de prueba donde la señal de entrada será el archivo del
paciente sano, comprobando así si realiza el reconocimiento y también se toma
uno de los archivos de los pacientes, aclarando, que se toma una parte del
archivo como una señal nueva para realizar las diferentes pruebas, verificando
su reconocimiento. Los resultados obtenidos se pueden observar mediante la
Tabla 4.1, donde se muestra el mejor porcentaje en la fase de prueba.
PACIENTES
FASE ENTRENAMIENTO %
FASE PRUEBA
SANO, EA, ECJ %
TIEMPO DE
ENTRENAMIENTO
ARQUITECTURA
4 archivos
78 89 2..5 hrs 1-8-3
4 archivos
89 93 1.15 hrs 1-13-3
4 archivos
99 97 45 min 1-18-3
Tabla 4.1. Resultados de la RNA con DF
El procedimiento en la RNA se repite utilizando la Transformada Ondaleta. Se
ocupan los coeficientes aproximados tomando los tres niveles de ruido, para
obtener resultados en la fase de entrenamiento y posteriormente decidir cual
familia de Ondaletas es más adecuada. Se toman los mismos parámetros, es
decir, la función de activación es de tipo sigmoidal ya que es una función
continua y diferenciable, proponiendo un rango de aprendizaje de 1.0=α y un
error de 0.005.
Se entrena la RNA utilizando los 4 archivos de los pacientes con cada familia,
aplicando el umbral calculado( Figura 4.18 ). De la misma manera en que se
realizó para la DF, en esta técnica se toman parte de los archivos de cada
paciente, tomándolas como señales nuevas, las cuales permiten realizar las
pruebas, verificando el funcionamiento de la red. Los resultados obtenidos en
la fase de entrenamiento son 91%, 98% y 79% respectivamente.
96
CAPIYULO 4
a) Symlet 7 b) Biorthogonal 3.9
c) Coiflet 5
Figura 4.18 Gráfica de error usando diferentes familias de Ondaletas
Al observar las gráficas de error de cada familia durante la fase de
reconocimiento, la mejor convergencia ocurre con la familia Biorthogonal 3.9, ya
que su estabilidad es rápida. En la familia Symlet 7 y Coiflet 5 presenta un
mayor tiempo de convergencia y no son estables, debido a los mínimos locales
que presenta la RNA.
En la fase de entrenamiento, la Ondaleta con mejores resultados es la
Biorthogonal 3.9. Por esto, se toman únicamente los coeficientes aproximados
de esta Ondaleta, como patrón de entrada de la RNA. Al realizar la fase de
97
CAPIYULO 4
entrenamiento ( Figura 4.19 ) los resultados alcanzan hasta un 99% de acierto
en la clasificación. La gráfica de error converge más rápido.
Figura 4.19 Gráfica de error de la RNA con la familia Biorthogonal 3.9
Al realizar la fase de prueba, la señal de entrada es el archivo del paciente sano
y parte del archivo de cada paciente, una muestra de 700 datos, comprobando
así si existe el reconocimiento. Los resultados obtenidos en la fase de prueba
se pueden observar mediante la Tabla 4.2.
PACIENTES
FASE
ENTRENAMIENTO %
FASE
PRUEBA SANO,
EA, ECJ %
TIEMPO DE
ENTRENAMIENTO
ARQUITECTURA
4 archivos
79 89 2.00 hrs 1-18-3
4 archivos
91 93 1.43 hrs 1-18-3
4 archivos
98 98 38 min 1-18-3
Tabla 4.2. Resultados de la RNA con Ondaletas
98
CAPIYULO 4
El mejor resultado como se observa en la tabla es mediante una arquitectura de
4 capas de entrada, 18 capas ocultas y 3 capas de salida utilizando la
Biorthogonal 3.9, con un tiempo de entrenamiento de 38 minutos, y un
porcentaje de reconocimiento en la fase de prueba del 98%.
Durante la fase de reconocimiento, la Figura 4.20 nos muestra el porcentaje
después de haber realizado el entrenamiento así como alcanzando un
reconocimiento aceptable, al utilizar ambos métodos de extracción de
características de EEG propuestos en este trabajo.
7889
99
7991
98
0
20
40
60
80
100
PORCENTAJES
Dimensión Fractal Wavelets
METODOS
RECONOCIMIENTO DE LA RNA
Figura 4.20 Porcentajes de reconocimiento en la fase de entrenamiento
En la fase de prueba, la Figura 4.21 realiza una comparación de ambos
algoritmos o métodos de extracción durante la fase de prueba utilizando
diferentes entradas para probar la robustez de la RNA utilizada, además de
que presenta ventajas en el tiempo de ejecución computacional.
99
CAPIYULO 4
8486889092949698
PORCENTAJE
1 2 3
PRUEBAS
RECONOCIMIENTO DE RNA
Dimensión FractalWavelets
Figura 4.21 Porcentajes de reconocimiento en la fase de reconocimiento
4.5 CONCLUSIONES
1. La función Ondaleta con la que mejores resultados se obtienen y resultó
más apropiada para descomponer señales de EEG, es la función
Biorthogonal, ya que es una función polinomial con propiedades
adecuadas para el análisis de señales de EEG, como es la suavidad, ya
que es muy importante evitar efectos de borde cuando se hace la
correlación entre la señal original y una función Ondaleta con patrones
abruptos; tiene una resolución tiempo–frecuencia óptima y un soporte
compacto, ya que no se extiende hacia el infinito.
2. La DF, permitió, a pesar de la complejidad de la señal de EEG, una
buena normalización y una reducción de datos, sin pérdida de
información y nos permite obtener ese grado de complejidad de la señal,
100
CAPIYULO 4
por lo que se puede adoptar como un método o técnica para análisis de
datos en señales que presenten estas características.
3. Los métodos propuestos cumplen con un alto porcentaje de
reconocimiento, para poder concluir que son óptimos para aplicarse
como un instrumento de apoyo para el médico en el diagnóstico de las
enfermedades.
101
CAPITULO 5
CAPITULO 5
CONCLUSIONES GENERALES Y
TRABAJO A FUTURO
1. El reconocimiento está compuesto por una primera etapa para extraer, a
partir del EEG, la información relevante para su reconocimiento, y una
segunda etapa que trata de decidir a cada señal de entrada su
correspondiente estado cerebral. En la primera fase se ha trabajado con
dos técnicas de tratamiento de señal: la DF y la Transformada Ondaleta.
La primera técnica es un algoritmo que nos ofrece un valor cuantitativo,
lo que permite medir la complejidad de la señal. La segunda de estas
técnicas es una transformada que permite descomponer las señales
EEG en sus distintos componentes frecuenciales conociendo cuál es su
localización temporal.
2. Las ventajas al utilizar la FD como método para extraer características de
la señal de EEG son las siguientes:
• Reducción de datos sin pérdida de información importante.
• Caracterización cuantitativa
• Comparar cambios en diferentes estados de la actividad cerebral.
3. Durante la fase de entrenamiento se obtuvo un porcentaje total del 99%
utilizando los patrones de entrada. Los mejores resultados considerados
para las neuronas ocultas obtenidos es con 18 capas ocultas. La
robustez de la configuración de la RNA constituye una herramienta en el
manejo de la información para desplazar la eficiencia de procedimientos
102
CAPITULO 5
4. estadísticos convencionales.
5. El tiempo de la fase de reconocimiento se realizó después de 1021
iteraciones, y el error de la RNA es considerado constante. La fase de
entrenamiento fue realizado en una computadora con un procesador
AMD Athlon 1.40 GHz, memoria de 256 MB, disco duro 60 GB y en este
caso cada iteración se tarda aproximadamente 9 segundos, teniendo un
tiempo total de entrenamiento cerca de 2 horas 30 minutos . Además la
DF indica el grado de complejidad de la señal de EEG.
6. Utilizando el algoritmo de DF, el tiempo de ejecución resultó satisfactorio,
ya que al realizar pruebas con la señal completa de cada paciente y la
red resultara muy lenta, además de que permite caracterizar señales no
caóticas. Donde una señal caótica hablando en el dominio del tiempo,
son diferentes subprocesos con diferentes características en escalas de
tiempo. 7. Basado en este análisis, se aplicó como otra técnica de extracción de
características la Transformada Ondaleta, utilizando 3 Ondaletas madre
adecuadas de acuerdo a las más parecidas a la señal de EEG, debido a
esto se escogió la Ondaleta Coiflet, Symlet y Biorthogonal.
8. El tiempo de la fase de reconocimiento se realizó con 1045 iteraciones, y
el error es considerado constante. La fase de entrenamiento se realizó
en la misma computadora. En este caso cada iteración tarda
aproximadamente 10 segundos, teniendo un tiempo de entrenamiento
mínimo de 2 horas con 40 minutos. La principal ventaja del método
presentado es que permite el procesado no supervisado de la señal, en
la etapa de extracción de características, aunque posteriormente se
utilice una RNA de aprendizaje supervisado.
9. Al obtener resultados satisfactorios, posibilitan al médico emplearlo
como una herramienta auxiliar para el diagnostico de las enfermedades
de Alzheimer y Creuztfeldt-Jakob, aunque para decidir si el paciente
presenta estas enfermedades, se necesitan otro tipo de estudios
103
CAPITULO 5
complementarios, especialmente en el caso del Alzheimer; ya que esta
enfermedad se presenta de diferentes formas y solo puede verificarse
que la persona lo padeció hasta que se le practica una autopsia.
10. En el caso de la enfermedad de Creuztfeldt-Jakob, debido a su origen y
a sus variaciones, puede indicar en que estado de avance se encuentra
el paciente o presenta síntomas iniciales, permitiendo así un tratamiento
con los medicamentos adecuados.
TRABAJO A FUTURO
Los resultados mostrados marcan una tendencia que garantiza que ambas
técnicas obtienen una tasa alta de acierto.
Se ensayarán otros tipos de Ondaletas, con un análisis comparativo más
detallado en ambos casos.
Se aplicarán espectros fractales o alguna otra herramienta de fractales para
señales de EEG, como algoritmo de extracción.
Aplicar a otras enfermedades neurológicas las propuestas presentadas en esta
tesis, así como la implementación de otra red neuronal artificial.
Optimizar la red neuronal utilizada mediante métodos de poda, para lograr un
mejor resultado en relación al tiempo de procesamiento ( Tiempo máquina ).
104
GLOSARIO
GLOSARIO Anatomapotalógico. Relativo a la anatomía patológica.
Cerebelo. Porción del encéfalo que ocupa la parte posterior e inferior del
cráneo, situada entre el cerebro por arriba y por el puente de Varolio y el bulbo
por abajo.
EEG. Abreviatura de electroencefalograma y electroencefalografía.
Encéfalo. Porción de sistema nervioso central contenido dentro del cráneo, que
comprende el cerebro, el cerebelo, el puente de Varolio y la médula oblongada.
Electrodo. Instrumento de forma muy variable para la aplicación directa de la
corriente eléctrica del cuerpo.
Extradural. Que está situado u ocurre fuera de la duramadre; epidural.
Isoeléctrico. Uniformemente eléctrico en todas partes; que tiene el mismo
potencial eléctrico.
Ionograma. Determinación y registro de la composición iónica de un humor.
Isquemia. Detención de la circulación arterial en parte y estado consecutivo de
la misma.
Lóbulo. Porción saliente de una víscera, limitada por cisuras y divisiones.
Madre. Dícese de la estructura origen de otras.
Patognómico. Dícese del signo o síntoma específico de una enfermedad y que
basta por si solo para sentar el diagnóstico. Signo o síntoma que en una
enfermedad falta constantemente.
Prión o proteasa. Enzima o fermento que digiere las proteínas.
Ritmo. Movimiento repetido a intervalos regulares.
Subdural. Situado o que ocurre debajo de la duramadre.
Trazado. Línea obtenida en el aparato registrador de movimientos fisiológicos
o patológicos.
Vacuolas. Pequeño espacio en el protoplasma de una célula.
Vacuolización. Proceso de formación de vacuolas.
105
REFERENCIAS Y BIBLIOGRAFIA
REFERENCIAS Y BIBLIOGRAFÍA
[1] Rafael Barea Navarra, Instrumentación Biomédica. Departamento
Electrónica. Universidad Alcalá , 1999
[2] Josefina Gutiérrez, Análisis de señales en el neuromonitoreo,
revista Mexicana de Ingeniería Biomédica, Vol. XXII, Núm. 2, Abril-
Septiembre 2001, pp. 67-77.
[4] http://www.informedica.org.ar
[5] Juan José Ortega Albás, “EEG en la enfermedad de Creutzfeldt-
Jakob”, Primer Congreso Virtual Iberoamericano de Neurología,
Servicio De Neurofisiología Clínica, Hospital General de
Castellon., 1999, pp. 200-211.
[6] AN INTRODUCTION TO NEURAL NETWORKS.J.W. De Claris; J.
Roberts;A. Lacaze.
http://www.enee.umd.edu/medlab/neural/nn1.html
[7] ANNIMAB (Artificial neural networks in Medicine and Biology)
http://www.hum.gu.se/mailman/listinfo/annimab
[8] INTERNATIONAL NEURAL NETWORK SOCIETY
http://cns-web.bu.edu/inns.
[9] Alberto Labarga Gutierrez, Clasificación de señales
encefalográficas con redes neuronales, Departamento de
ingeniería eléctrica y Electrónica-Universidad Pública de Navarra,
Campus de Arrosadía ,Pamplona-España,1995.
[10] José C. Principe, Bert de Vries, Modeling applications with the
focused gamma net, Department of Electrical Engineering,
[20] S. Y. Cho, B. Y. Kim, E.H. Park, J. W. Kim, W.W. Whang, S. K.
Han, H. Y. Kim, Automatic recognition of Alzheimer’s disease with
single channel EEG recording, IEMBS Proceedings of the 25th
Annual International Conference of the IEEE, 17-21 Septiembre
2003, 3, 2655-2658.
[21] M. Katz, “Fractals and the analysis of waveforms”, Comput. Biol.
Med., vol 18, No. 3, pp 145-156,1988
[22] José R. Hilera y Victor J. Martinez,”Redes neuronales artificiales.
Fundamentos, modelos y aplicaciones”, Edit. Alfaomega,2000.
[23] V. Cabukovski, N. d. M. Rudof, N. Mahmood, “Measuring the
fractal dimension of EEG signals: selection and adaptation of
method for real-time analysis”, Second International Conference on
Computers in Biomedicine Computational Biomedicine, pp. 285-
292, 1993.
[24] W.Klonowski, J. Ciszewski, R. stepien, “Fractal analysis of
multichannel EEG data in patients with seasonal affective
disorder”, Institute of Biocybernetics and Biomedical Engineering,
Polish Academy of Sciences
[25] P.A.Watters,“Fractal Structure in the Electroencephalogram”,
Department of Psychology University of Newcastle, Callaghan
NSW 2308 AUSTRALIA, Complexity International Vol. 5, 1998.
[26] Mandelbrot, B.B.The Fractal Geometry of Nature. W.H. Freeman
and Co., NewYork., 1983.
108
ANEXO A
ANEXO A
PROGRAMAS EN
MATLAB
109
ANEXO A
A continuación se muestran los programas realizados en MATLAB 6.5, para el
desarrollo de este trabajo.
Este primer programa realiza la descomposición de Ondaletas en diferentes
niveles.
%********************* %DESCOMPONE LA SEÑAL * %********************* %Carga la señal original, load alz2.txt; s=alz2(1:800); %Descompone la señal s en un nivel usando Wavelet %w = 'coif5'; %w='sym7'; w='bior3.9'; %[c,l] = wavedec(s,6,w); %[c,l] = wavedec(s,7,w); [c,l] = wavedec(s,8,w); %Reconstruye los coef_aproximados usando la estructura de descomposición %D=wrcoef('a',c,l,w,6); %D=wrcoef('a',c,l,w,7); D=wrcoef('a',c,l,w,8); for i = 1:8 D(i,:) = wrcoef('a',c,l,w,i); end %Evita los efectos de borde mediante supresion de valores de bordes tt=1+100:length(s)-100; subplot(7,1,1);plot(tt,s(tt),'r');grid; ylabel('Amplitud'); title('DESCOMPOSICION DE COEFICIENTES APROXIMADOS:biorthogonal 3.9 '); subplot(7,1,2); plot(tt,D(7-1+1,tt),'b');grid;ylabel('Nivel 1'); subplot(7,1,3); plot(tt,D(7-2+1,tt),'b');grid;ylabel('Nivel 2'); subplot(7,1,4); plot(tt,D(7-3+1,tt),'b');grid;ylabel('Nivel 3'); subplot(7,1,5); plot(tt,D(7-4+1,tt),'b');grid;ylabel('Nivel 4'); subplot(7,1,6); plot(tt,D(7-5+1,tt),'b');grid;ylabel('Nivel 5'); subplot(7,1,7); plot(tt,D(7-6+1,tt),'b');grid;ylabel('Nivel 6'); xlabel('Muestras'); %for i = 1:5, % subplot(6,1,i+1); plot(tt,D(5-i+1,tt),'b');grid %end
110
ANEXO A
Se calculan los coeficientes aproximados de cada archivo de EEG.
% CARGA UNA SEÑAL DE UNA DIMENSION %load abiertos.txt; %s=abiertos(1:800); z = input('Teclee el nombre del archivo:','s'); %Guarda la dirección (ruta) fid = fopen(z,'r'); s = fscanf(fid,'%f',[800]); % Nivel de descomposición 3. [C,L] = wavedec(s,3,'coif5'); [C1,L1] = wavedec(s,3,'bior3.9'); [C2,L2] = wavedec(s,3,'sym7'); nivel=length(L)-2; nivel1=length(L1)-2; nivel2=length(L2)-2;
% Extrae coeficientes de aproximación nivel 3, de una % estructura de descomposición de Wavelet. %0 <= N <= length(L)-2 ca3 = appcoef(C,L,'coif5',nivel); ca2 = appcoef(C1,L1,'bior3.9',nivel1); ca1 = appcoef(C2,L2,'sym7',nivel2); % Se dibuja la gráfica figure(1); subplot(2,2,1);plot(s); title('Señal paciente 5: sano');grid subplot(2,2,2);plot(ca3); title('Coiflet 5');grid subplot(2,2,3);plot(ca2); title('Biorthogonal 3.9');grid subplot(2,2,4);plot(ca1); title('Symlet 7');grid
111
ANEXO A
Calcula la dimensión fractal para una señal de EEG, también realizando un
análisis mediante la transformada de Fourier.
%****************DIMENSION FRACTAL***** clear all z = input('Teclee el nombre del archivo:','s'); %Guarda la dirección (ruta) fid1 = fopen(z,'r'); %Abre el archivo (para leer o escribir) y=fscanf(fid1,'%f',800); %grafica de los datos de entrada figure(1); plot(y);grid;title('SEÑAL EEG PACIENTE 5 (SANO)'); xlabel('Muestras');ylabel('Amplitud'); %calcula transformada de fourier senal=abs(fft(y)); figure(2); plot(senal);grid title('Señal original con FFT'); xlabel('Frecuencia');ylabel('Amplitud'); %calcula valores máximos y minimos n=length(senal);%y); ymin=min(min(senal));%y)); ymax=max(max(senal));%y)); yscl=ymax-ymin; %comienza ciclo para calcular la dimensión fractal if n<2!ymax=ymin!n=1 longitud=1; else %calcula la longitud de la curva longitud=0; dx2=sqrt(1/(n-1)); for j=2:n dy=(senal(j)-senal(j-1))/yscl;%y(j)-y(j-1))/yscl; longitud=longitud+sqrt(dx2+dy*dy); d(j)=1+(log10(longitud)/log10(2*(n-1))); t(j)=senal(j)/d(j);%y(j)/d(j); end end %grafica de la dimension fractal
Este programa calcula la dimensión fractal de toda la señal de EEG, mediante
el número total de muestras.
%****************DIMENSION FRACTAL***** clear all z = input('Teclee el nombre del archivo:','s'); %Guarda la dirección (ruta) fid1 = fopen(z,'r'); %Abre el archivo (para leer o escribir) y=fscanf(fid1,'%f',800); %grafica de los datos de entrada figure(1); subplot(2,1,1);plot(y);grid title('señal de EEG'); xlabel('Muestras');ylabel('Amplitud'); %calcula transformada de fourier %senal=abs(fft(y)); %subplot(2,1,2);plot(senal);grid %title('Señal original con FFT'); %xlabel('Frecuencia');ylabel('Amplitud'); %calcula valores máximos y minimos n=length(y);%senal);%y); l=1; ctedimension=5; nminima=n/ctedimension; for i=1:nminima for m=1:ctedimension yy(m)=y(l);
113
ANEXO A
l=l+1; end yymin=min(min(yy));%senal));%y)); yymax=max(max(yy));%senal));%y)); yscl=yymax-yymin; %comienza ciclo para calcular la dimensión fractal if n<2!yymax=yymin!n=1 longitud=1; else %calcula la longitud de la curva longitud=0; dx2=sqrt(1/(n-1)); for j=2:ctedimension%n dy=(yy(j)-yy(j-1))/yscl;%senal(j)-senal(j-1))/yscl;% longitud=longitud+sqrt(dx2+dy*dy); d(j)=1+(log10(longitud)/log10(2*(n-1))); t(j)=yy(j)/d(j);%senal(j)/d(j);% end %fin de for end % fin de if acumula(i)=d(j); end % fin de for %grafica de la dimension fractal fprintf('La dimensión es: %f',d(j)); %figure(2); subplot(2,1,2);plot(acumula);grid title('Señal resultante de la dimension fractal'); xlabel('Muestras');ylabel('Dimension fractal'); %dimen=abs(fft(acumula)); %subplot(2,1,2);plot(dimen);grid %title('Señal DF con FFT'); %xlabel('Frecuencia');ylabel('Amplitud'); Este programa calcula la red neuronal backpropagation propuesta %%%%%%%%%%%%%%%% RED BACKPROPAGATION %%%%%%%% %%%%%%%%%%%%%%%% ENTRENAMIENTO %%%%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % % SE INICIALIZAN LOS VALORES clear all opcion=0; % VALORES DE ENTRADA
114
ANEXO A
N=20; %neuronas de entrada sin contar bias L=18; %neuronas de la capa oculta sin contar bias M=3; %Neuronas de salida % INICIALIZACION DE LA MATRIZ DE PESOS W Y V W=0.2*rand(N+1,L)-.1; V=0.2*rand(L+1,M)-.1; % CARGA ARCHIVO CON DATOS DE ENTRADA load df_patron.txt A=df_patron(size(10,length(df_patron))); % CARGA ARCHIVO CON DATOS DESEADOS B=[1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 -1.00000 % CARGA VALORES PROPUESTOS alfa=0.00500; %para este caso miu min=0.1; %umbral definido iter=100000; %maximo numero de iteraciones para que converga la red [patrones,i]=size(A); % SE FORMA MATRIZ DE ENTRADA PA=[]; for g=1:patrones PA(g,:)=[1,A(g,:)]; %se forma la matriz de entrada para formar el epoch aumentado el bias end % INICIA ENTRENAMIENTO cont=0; Z=0; for k=1:iter cont=cont+1; %numero de epochs error=0; for i=1:patrones X=PA(i,:); %X es la capa entrada U=(X*W); %U es la capa oculta U=tansig(U); %se ocupa tansig como funcion no lineal U=[1.0,U]; %se agraga el bias Y=tansig(U*V); %Y es la capa de salida
115
ANEXO A
E=B(i,:)-Y; % se calcula el error %adaptacion delta1=E*0.5.*(1-(Y.*Y)); V=V+alfa*U'*delta1; a=delta1*V'; delta2=a.*(0.5.*(1-(U.*U))); delta2=delta2(2:length(delta2)); % se le quita el bias de U para calcular W W=W+alfa*X'*delta2; error=error+E*E'; end error=error/4; fprintf(1,'Err=%4.9f ==> %d\n',error,k); J(k)=error; if error<min break; end end plot(J); save bp_enfermedad_pesos W V; %se tiene que cambiar el nombre de archivo para otra aplicacion %*************************************************** %PRUEBA DE LA RED PARA LOS PATRONES %**********************************************+*** cont0=0; for i=1:patrones X=PA(i,:); %se aumenta bias a la capa de entrada U=tansig(X*W); %se calcula la capa oculta U=[1.0,U]; Y=tansig(U*V); %se calcula la salida fprintf('%f %f %f %f %f %f %f %f %f %d %d %d %d %d %d %d %d %d\n',Y(1),Y(2),Y(3),Y(4),Y(5),Y(6),Y(7),Y(8),Y(9),hardlim(Y(1)-0.5),hardlim(Y(2)-0.5),hardlim(Y(3)-0.5),hardlim(Y(4)-0.5),hardlim(Y(5)-0.5),hardlim(Y(6)-0.5),hardlim(Y(7)-0.5),hardlim(Y(8)-0.5),hardlim(Y(9)-0.5)); if(B(i,:)~=hardlim(Y-0.5)) cont0=cont0+1; end end fprintf('\n %d patrones no reconocidos',cont0);
116
ANEXO A
Programa que realiza las pruebas para verificación de reconocimiento clear; load bp_enfermedad_pesos; B=bp_enfermedad_pesos(1:20); load archivo_prueba X1=archivo_prueba(1:20); for g=1:n X2(g,:)=[1,X1(g,:)]; end for g=1:n X=X2(g,:); U=tansig(X*W); %se calcula la capa oculta U=[1.0,U]; Y=tansig(U*V); %se calcula la salida fprintf('\nLa salida de la red es la siguiente;\n'); fprintf('%d %d %d %d %d %d %d %d %d\n',hardlim(Y(1)-0.5),hardlim(Y(2)-0.5),hardlim(Y(3)-0.5),hardlim(Y(4)-0.5),hardlim(Y(5)-0.5),hardlim(Y(6)-0.5),hardlim(Y(7)-0.5),hardlim(Y(8)-0.5),hardlim(Y(9)-0.5)); if(B(g,:)~=hardlim(Y-0.5)) cont0=cont0+1; end end fprintf('\n %d patrones no reconocidos',cont0);
117
ANEXO B
ANEXO B
ARTICULOS PUBLICADOS
LISTA DE PUBLICACIONES
1. Rosa Rodríguez-Quintanar, Volodymyr Ponomaryov, Cas Tour / ICED
IEE Latin American Cas Tour & International Conference on Electronic
Design 2004, Recognition Creutzfeldt-Jakob’s Disease Using EEG’s Sign
and Artificial Neural Networks, Boca del Río, Veracruz.
2. R.M. Rodríguez, V. Ponomaryov, XIX Congreso de Instrumentación ,
Reconocimiento de enfermedades (Creuzfeldt-Jakob, Alzheimer) usando
la señal de EEG mediante redes neuronales, Pachuca, Hidalgo, 25-29 de
Octubre 2004.
3. Rosa Rodríguez Quintanar, Volodymyr Ponomaryov, IASTED
International Conference on Modelling and Simulation (MS 2005),
Recognition of Alzheimer’s and Creutzfeldt-jakob’s Disease Using Fractal
Dimension and Backpropagation Network, Cancún, México, 18-20 de