Trabajo Monográfico. Nuevo método para el tratamiento y análisis de datos de auscultación de carreteras. 0 Gestión y Conservación de Obras Públicas Trabajo Monográfico. Nuevo Método para el Tratamiento y Análisis de Datos de Auscultación de Carreteras 201123/11/2011 Ángel de la Rosa Velasco Iván Vega Sánchez
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
2
1. Introducción
Desde hace años la falta de datos de los diferentes parámetros para decidir la
conservación y rehabilitación de firmes de carreteras ha sido un problema muy importante
que han tenido afrontar todos los técnicos encargados de la gestión y explotación de
carreteras en España. La tecnología de la que se disponía para auscultar las carreteras erabastante imprecisa, así como los medios informáticos y de transformación de datos analógicos
a digitales no eran los más adecuados para realizar análisis correctos.
Gracias al gran desarrollo de la electrónica e informática durante los últimos años se
ha podido obtener hoy una gran capacidad de procesamiento y almacenamiento de datos, lo
cual ha transformado este proceso de manera espectacular en los últimos veinte años.
Las actuales herramientas informáticas de las que se disponen actualmente poseen
una capacidad de procesamiento que posibilita el uso de conversores analógico-digitales que
pueden recoger decenas de parámetros en tiempo real y con una velocidad de muestreo que
hace que se dispongan de datos de gran parte de los parámetros necesarios con un intervalo
de muestreo muy elevado.
Estos avances han posibilitado la generalización de equipos de auscultación con
enormes rendimientos, con la capacidad de realizar campañas de medida en la totalidad de la
red de carreteras de alta capacidad.
Con todo esto, actualmente se disponen de muchísima información en intervalos cada
vez más pequeños, y con unos niveles de precisión muy grandes, lo cual ha traducido el
problema al sentido contrario, es decir, actualmente se dispone de una sobreinformación.
Como consecuencia de esta gran cantidad de información disponible actualmente elproblema es como tratar dichos datos y como resumir dicha información de manera que se
pueda manejar de manera eficaz y de manera fiable la gran cantidad de datos originales. La
solución general en esta rama y otras ramas de la ingeniería y ciencia consiste en realizar
resúmenes estadísticos que muestren datos de las poblaciones y ver la manera en la que se
distribuyen estos datos. Los valores usados normalmente son la media aritmética, la varianza,
la desviación típica, el coeficiente de variación, los estimadores de la media al 95 %, los
intervalos de confianza, etc.
Una serie de datos es homogénea cuando procede de una muestra aleatoria sacada deuna única población. El problema se produce cuando los datos vienen de series en las que se
desconoce a priori si una determinada agrupación procede de una misma población o no y
sobre estas agrupaciones se quiere realizar resúmenes estadísticos. Por ejemplo, si los datos
provienen de un equipo de auscultación de carretera, es común hacer agrupaciones cada
punto kilométrico, y para cada kilómetro se realiza un resumen estadístico de todos los datos
que hay en dicho tramo.
Este problema se da también en otros tipos de series de datos generados en procesos
más o menos continuos y luego agrupados con criterios más o menos arbitrarios, como
criterios de intervalos determinados de tiempo, acumulación del resultado de algunavariable,...
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
3
Debido a esta combinación de resúmenes estadísticos con sistemas de agrupación
arbitraria en muchas ocasiones en muchas ocasiones los valores de resúmenes obtenidos no
representan fielmente a las series de datos de los que proceden.
La manera de calcular la media, varianza, etc., obvia la ordenación original de datos y
hace que haya una gran probabilidad de que datos con valores bajos de un parámetrodeterminado se compensen con valores altos del tramo elegido arbitrariamente. De este modo
ni las agrupaciones realizadas ni los valores obtenidos de ellas representan fielmente los datos
originales.
Lo primero se debe a que las agrupaciones son arbitrarias y no corresponden a
cambios en los valores encontrados en la variable de estudio. Lo segundo se debe a la
incorrecta agrupación de datos en donde se mezclan tramos de diferentes características y que
provienen generalmente de diferentes poblaciones estadísticas.
A modo de ejemplo se muestra en la figura 1 cuatro tramos formados por una
sucesión aleatoria de valores tomados de cuatro poblaciones con distribución N( ) juntocon el valor medio del tramo y los intervalos de confianza que incluyen el 95 % de los datos.
Los valores de la media y la desviación típica de cada tramo se muestran en la tabla 1 como
valores reales y sirven para generar las series de datos. Los tramos no son de la misma longitud
y muestran evidentes diferencias entre ellos. Si sobre esta serie de datos se realiza un resumen
estadístico cada 50 datos, los resultados que se obtienen son los mostrados en la figura 2.
Figura 1. Sucesión aleatoria de cuatro series normales
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
5
características similares, optimizando de este modo los recursos empleados y teniendo la
certeza que tramos con malas condiciones respecto de una variable no se compensan con
tramos en los que se tengan buenos resultados.
Si la figura 1 muestra valores de un determinado parámetro sobre el que hay que
tomar decisiones cuando desciende del valor 50, se observa que el resumen estadísticorealizado con la agrupación arbitraria de los datos no da problema en el tramo 2 ya que su
media es 56. En este caso no se detecta un tramo en el que un parámetro ha sobrepasado el
umbral de actuación.
Si se usa un método más conservador como en la figura 2 en el que se representan las
zonas que contienen al 95 % de los datos, y marcando como umbral inferior el límite de
decisión, se observa que fijado el mismo valor umbral de 50 se obtiene un valor para el
intervalo inferior den el grupo 2 de aproximadamente 17, y para el grupo 3 de 37,5. Ambos
valores son inferiores al valor umbral de toma de decisiones.
La actuación prevista se aplicaría a los grupos 2 y 3, y se observa en las figuras la zonaque realmente presenta el problema es la que corresponde al tramo 2 que es prácticamente la
mitad de la formada por los grupos 2 y 3 juntos. En este caso se observa que los recursos no
serían optimizados, y las medidas correctoras tomadas en base a los criterios de agrupación
descritos se aplicarían a una longitud o a un número mucho más elevado de elementos que el
estrictamente necesario.
De este modo se aprecia la gran importancia que tiene la correcta separación en
grupos con características estadísticamente similares, para realizar los resúmenes necesarios
que representarán de manera más fiel la realidad de los datos obtenidos. Propuesta de un
Procedimiento de Sectorización de Series.
2. Propuesta de un procedimiento de sectorización de series
Para detectar tramos homogéneos contenidos en series continuas de datos se ha
desarrollado un método que combina diversas propiedades de las series normales para utilizar
sobre los datos dos test de rachas, junto con los test de igualdad de medias y varianzas.
Los datos recogidos por sensores de cualquier tipo siguen una distribución normal
N( ) en el caso de que la muestra sea recogida de una población. El problema surge cuandose sigue realizando una medición y aparecen nuevas muestras de nuevas poblaciones,
apareciendo en un gráfico continuo de mediciones del que es difícil separar con precisión las
series originales. Esta separación de datos presenta muchos problemas a la hora de realizarse
automáticamente.
Como ejemplo se observa la figura 3 que muestra tres series normales de datos
consecutivas, 500 muestras aleatorias de una N(26,1), 150 muestras de una N(26,4) y 350
muestras de una N(20,4).
Es método propuesto pretende separar tramos homogéneos dentro de la serie de
manera automática, suponiendo que los datos recogidos siguen distribuciones normales devalores ydesconocidas.
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
7
Como veremos en nuestro caso la primera hipótesis estadística será no paramétrica
(aleatoriedad de la distribución), y luego utilizaremos hipótesis no paramétricas (si los valores
de la serie superan la media o no, etc).
La hipótesis que se contrasta se denomina hipótesis nula y, normalmente, se denota
por H0. Si se rechaza la hipótesis nula es porque se asume como correcta una hipótesiscomplementaria que se denomina hipótesis alternativa y se denota por H1.
Al realizar cualquier contraste de hipótesis estadístico se deben seguir las siguientes
etapas:
1. Plantear el contraste de hipótesis, definiendo la hipótesis nula (H0, hipótesis que se
desea contrastar), y la hipótesis alternativa (H1, cualquier forma de negación de la
hipótesis nula).
2. Definir una medida de discrepancia entre la información que proporciona la muestra( ) y la hipótesis H0. Esta medida de discrepancia
se denomina estadístico del contraste y será cualquier función de los datos muestrales ) y de la información de la hipótesis nula H0.
La medida de discrepancia debe seguir una distribución conocida cuando H0 sea cierta,
de forma que se pueda distinguir entre:
Una discrepancia grande, la que tiene una probabilidad muy pequeña de ocurrir
cuando H0 es cierto.
Una discrepancia pequeña, la que tiene una probabilidad grande de ocurrir cuando H0
es cierta.
3. Decidir qué valores de d se consideran muy grandes, cuando H0 es cierto, para que
sean atribuibles al azar. Esto es, decidir que discrepancias se consideran inadmisibles
cuando H0 es correcto, lo que equivale a indicar el valor del nivel de significación, que
se denota por α.
4. Tomar la muestra ( ), calcular el valor del estadístico asociado a la muestra (valor
crítico del contraste) y analizar:
Si es pequeño (pertenece a la región de aceptación), entonces se acepta la
hipótesis H0.
Si es grande (pertenece a la región de rechazo), entonces se rechaza lahipótesis H0.
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
8
Al realizar un contraste se puede cometer uno de los dos errores siguientes:
Error tipo I, se rechaza la hipótesis nula H0 cuando es cierta.
Error tipo II, se acepta la hipótesis nula H0 cuando es falsa.
Situación Real
H 0 es cierta H 0 es falsa
DECISIÓN
ACEPTAR H0 CORRECTO ERROR II
RECHAZAR H0 ERROR I CORRECTO
Tabla 2. Tipos de Errores
Debe tenerse en cuenta que sólo se puede cometer uno de los dos tipos de error y, en
la mayoría de las situaciones, se desea controlar la probabilidad de cometer un error de tipo I.
Se denomina nivel de significación de un contraste a la probabilidad de cometer un
error tipo I, se denota por α y, por tanto:
Fijar el nivel de significación α equivale a decidir de antemano la probabilidad máximaque se está dispuesto a asumir de rechazar la hipótesis nula cuando es cierta. El nivel de
significación lo elige el experimentador y tiene por ello la ventaja de tomarlo tan pequeño
como desee (normalmente se toma α = 0'05, 0'01 o 0'001).
La selección de un nivel de significación α conduce a dividir en dos regiones el conjunto
de posibles valores del estadístico de contraste:
La región de Rechazo, con probabilidad α, bajo H0.
La región de Aceptación, con probabilidad 1-α, bajo H0.
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
10
3.1 Test de las Rachas
El test de las rachas (Bradley, 1968), se usa para decidir si una serie de datos procede
de un proceso aleatorio. El test estudia el origen temporal o espacial en que las muestras han
sido recogidas, de modo que muestra si una serie de datos se está desviando de la sucesiónlógica o esperada, detectando que existe una tendencia no aleatoria en la aparición de los
mismos. El test está indicado para datos aleatorios que admita dos posibilidades excluyentes,
como estar por encima o por debajo de un valor medio.
El resultado del test será la aceptación o no de la hipótesis nula:
Si se rechaza H0 implica que los datos necesariamente proceden de dos poblacionesdiferentes: el conjunto de datos puede proceder de una sola población pero es
estadísticamente imposible por el hecho de rechazar H0 esperar que los datos recogidos
presenten una ordenación no aleatoria, es decir, que tengan algún tipo de tendencia. Esto se
usa para detectar el cambio de una población a otra.
La figura 6 indica una sucesión de valores que muestran las definiciones de los
parámetros del test.
R es el número de rachas o sucesiones de datos contiguos en la misma categoría.
En la figura 6 se observan cinco rachas de la categoría A, y cuatro de la categoría B. Eltest de las rachas espera, en función de las cantidades N A y NB, que el número de rachas R no
sea ni muy grande ni muy pequeño y lo acota estadísticamente.
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
12
Figura 7. Cuatro casos de ordenaciones espaciales
Como el valor del número de rachas R=9 está comprendido entre dicho intervalo se
acepta la hipótesis H0, que implica que la aparición de los datos en la serie es aleatoria y no
existe ningún patrón definido en la sucesión.
El caso 2 y el caso 3 se analizan de manera similar:
El caso 2 muestra una sucesión oscilante que presenta, con N A = 11 y NB = 9, un
número anormalmente bajo de rachas R=4, inferior a RNA, NB, /2=6, rechazándose la hipótesis de
que los datos se distribuyen aleatoriamente (evidente ya que es una serie oscilatoria).
El caso 3 tiene un número de rachas R=2, que indica que la ordenación no es aleatoria
sino que tiene clara tendencia.
El caso 4 tiene un número de rachas anormalmente alto R=20, que indica que los datos
tienen valores alternos y no siguen un patrón aleatorio.
Esta propiedad del test de las rachas es la que se va a usar para separar series de datos
en tramos homogéneos. Pero hay que convertir las series en grupos de datos que puedan ser
divididos en dos clases disjuntas. Esto se hace con los “Test 1” y “Test 2” que se describen a
continuación.
3.1.1 Test 1: Test de las Rachas para Valores Medios
Se usa para detectar series consecutivas con valores medios diferentes ( figura 8,
izquierda). Se separan los valores en dos grupos disjuntos comparando cada dato con el valormedio de los datos procesados en cada momento.
Al ser las series normales N( ) simétricas ( figura 8, derecha), y la probabilidad deestar por encima o por debajo del valor medio es p=0,5, se tiene la serie de datos en dos
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
13
grupos disjuntos, los valores que superan el valor medio y los que son inferiores a dicho valormedio.
Se contabiliza el número de rachas de los valores superiores e inferiores a la media,tratando como anormales las distribuciones en las que el valor del número de rachas seaanormalmente alto o bajo.
Como se desconoce el valor verdadero se usa su estimador ; de este modo losdatos serán de categoría A si x i < , y de categoría B si x i ≥.
Figura 8. Series consecutivas con valores medios diferentes
3.1.2 Test 2: Test de las Rachas para las Desviaciones
El objetivo es detectar variaciones en las varianzas como las mostradas en la figura 9
(izquierda). Para ello divide también en dos grupos disjuntos.Se hallan los puntos Z (0,25) y Z (1-0,25) que son los puntos de la curva normal que dejan a la
derecha e izquierda una probabilidad p=0,25 ( figura 9, derecha). Así se obtienen las siguienteszonas:
Zona “A” dentro del intervalo, y las zonas exteriores “B/2” con igual probabilidad. Así un dato escogido al azar de una población normal tiene la misma probabilidad de ser recogidode la zona interior que de las dos exteriores. Esto se debe a que los datos de una distribuciónnormal se distribuyen con igual probabilidad dentro y fuera del intervalo, presentado unadispersión determinada. No lo harán si se incorporan valores que, aunque sean normales conla misma media no tengan la misma desviación típica.
Deshaciendo la normalización y sustituyendo por los estimadores de y el valor de Z 0,25 y Z 0,75:
; Z 0,25 = -0,677; Z 0,75 = 0,677
Así, los datos estarán dentro de la categoría A si:
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
14
Debido a la simetría:
Estarán en la categoría B:
Figura 9. Series consecutivas con desviaciones diferentes
3.2 Test de Igualdad de Medias y Varianzas
En la parte final del proceso la serie completa queda dividida en varios subtramos queconsideramos homogéneos, el problema es que el test de las rachas es bastante sensible y
divide la serie en un número excesivo de subtramos, dejando tramos consecutivos de muy
parecidas características y que pudieran englobarse en uno solo.
Para unir estos subtramos resultantes en uno solo se realizan dos test, denominados
“Test 3” y “Test 4”, con el fin de comprobar si es posible unir dos subtramos consecutivos,
debiendo para esto cumplir simultáneamente un test de igualdad de medias y otro de igualdad
de varianzas para que se proceda a la unión de los mismos.
3.2.1 Test 3: Test de Igualdad de Medias
Para determinar si dos muestras con n1 y n2 datos, procedentes de dos distribuciones
normales N1(μ1 ,σ 1 ) y N2(μ2 ,σ 2 ), cuyas varianzas suponemos conocidas, tienen valores para la
media que puedan considerarse estadísticamente similares, se utiliza el contraste de medias
con varianzas conocidas, planteando la siguiente hipótesis nula:
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
17
Definimos entonces un estadístico experimental y los límites de la región crítica como:
Y el criterio de aceptación rechazo es:
Lo que nos deja el test como:
4. Descripción del Proceso de Sectorización
El proceso se lleva a cabo en cuatro fases. En una primera fase, “División ascendente” ,se divide la serie completa en tramos de igual media y varianza, por medio de los test de
rachas “Test 1” y “Test 2”, que utilizan dos categorizaciones diferentes, una que nos permite
detectar tramos con diferentes valores medios y la otra tramos con diferentes varianzas. Esta
división se realiza suponiendo los datos ordenados tal y como se encontraron espacialmente.
A continuación se divide la serie completa en tramos, por medio de los dos test de
rachas “Test 1” y “Test 2”, con las dos categorizaciones citadas, pero esta vez la división se
realiza suponiendo los datos ordenados en el sentido inverso al anterior, “División
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
18
Combinando los tramos en que queda dividida la serie de datos con las divisiones
ascendente y descendente, se consigue una subdivisión de los datos en subtramos
independientes del sentido de medida, “División en subtramos” .
Por último se realiza una “Recombinación de los subtramos” resultantes que
estadísticamente puedan ser iguales por medio de una matriz de estimadores puntuales deigualdad de medias y varianzas, utilizando los “Test 3” y “Test 4”, descritos con anterioridad.
A continuación se describen con detalle cada una de estas fases.
4.1 División Ascendente
El programa recoge los cinco primeros datos en orden ascendente y a partir del sexto
dato comienza el proceso de detección de los tramos. La razón de evitar estos primeros datos
es que en una ordenación de tan solo 5 datos, cualquier combinación de rachas y valores dedatos en las categorías A y B son plausibles con un nivel de significación de α=0.05, por lo tanto
no se pueden detectar tramos con un número de datos inferior a 5.
A partir del sexto dato, el proceso mostrado en la Tabla 3, es el siguiente, se calcula la
media y la desviación S6 de los 6 primeros datos y a continuación se realiza el test de las
rachas para la media, comparando los datos desde x 1 hasta x 6 con el valor obtenido de .
Asignándolos a la categoría A si x i < en la categoría B si x i ≥ y contabilizando los cambios
de categoría consecutivos para obtener el número de rachas.
De esta manera obtendremos los valores A6 , B6 y R6, que representan respectivamente
el número de datos en la categoría A, en la B y el número de rachas observado hasta el dato nº
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
20
Si los dos test son positivos y aceptan la hipótesis de que los datos están distribuidos
aleatoriamente, se repite el proceso añadiendo un dato más y recalculando todos los
parámetros.
En cambio si hay datos que proceden de distintas series llegará un momento, en el
dato enésimo, en el que uno de los dos test rechazará la hipótesis de que los datos procesadoshasta ese momento están distribuidos aleatoriamente. En este caso dependiendo del test que
presente el rechazo se actuará, de una u otra manera.
4.1.1 Caso de Rechazo por el Test 1
Para explicar esto veamos la figura 10 en la que se han representado dos series
consecutivas N1(μ1 ,σ 1 ) y N2(μ2 ,σ 2 ) con valores medios y desviaciones diferentes. Vemos el valor
medio calculado hasta el dato enésimo y el punto de detección donde el test de las rachas
indica que los datos procesados hasta ese momento no siguen una distribución aleatoria.
Figura 10. Rechazo por el valor medio
Como se puede apreciar este punto de detección siempre será posterior al punto real
en que los datos cambiaron de una distribución a otra debido a que es necesario incorporar k
datos de la serie N2 a la serie N1 para que el test de las rachas detecte que existe una
anormalidad en el conjunto de datos procesados.
Para poder determinar entonces qué porción de los datos procesados no
corresponden a la serie N1 y poder eliminarlos estudiaremos los datos de la última racha y los
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
21
compararemos con los anteriores. Así calculamos el valor de la media y la desviación, y
anteriores al punto de cruce de la última racha y los posteriores a dicho punto y .
Si las dos series N1 y N2 tuviesen la misma media, todos los datos de la última racha
serían de la serie N1, para lo cual el estadístico del contraste para la igualdad de medias de las
dos poblaciones debería ser igual a 0, por el contrario, si fuesen muy diferentes, el estadísticotenderá a tomar valores elevados e indicaría que ningún valor de la última racha tiene
probabilidad de ser de la serie N1.
El estadístico citado para el contraste es el de igualdad de dos medias con varianzas
conocidas:
donde es la cuasivarianza muestral ponderada.
Como se trata tan solo de realizar una sencilla estimación y el valor de para
valores elevados de Na y Nb se puede aproximar a una N(0,1), tomaremos como valor más
elevado para este estadístico T=3, que corresponde a casos francamente aberrantes.
De esta manera estimamos la siguiente relación para el número de datos de la últimaracha a agregar a los datos de N1:
donde DN1 es el número de datos de la última racha de k datos que se estiman pertenecientes
a la serie N1. Como el número de datos no puede ser un número fraccionario, tomaremos la
parte entera de la estimación, quedando finalmente la expresión:
Una vez obtenido el número de datos que se estiman pertenecen a N1, tendremos
definido el primer tramo del sentido ascendente que estará comprendido entre el dato 1 y el
dato n-k+DN1. A partir de este momento se reiniciará el cálculo desde el dato n-k+DN1+1, hasta
el momento en que o bien finalicen los datos, o bien se obtenga un resultado negativo de uno
de los test de las rachas que indicaría que existe una tercera agrupación, repitiéndose el
proceso hasta rastrear todos los datos de la serie.
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
22
4.1.2 Caso de Rechazo por el Test 2
Veamos ahora en la figura 11 en la que se han representado dos series consecutivas
N1(μ,σ 1 ) y N2(μ,σ 2 ) y con valores medios iguales y desviaciones diferentes.
Figura 11. Rechazo por la desviación
En este caso, el dato que separa las categorías es , según se indica en el
apartado 3.1.2, y se compara con
para obtener el número de rachas que quedan
en cada categoría.
Vemos el valor calculado hasta el dato enésimo y el punto de detección
donde el test de las rachas indica que los datos procesados hasta ese momento no siguen una
distribución aleatoria.
Se puede apreciar que como en el caso anterior, el punto de detección tiene que ser
posterior al punto real en que los datos cambiaron de una distribución a otra debido a que es
necesario incorporar k datos de la serie N2 a la serie N1 para que el test de las rachas detecte
que existe una anormalidad en el conjunto de los datos procesados.
Para estimar qué parte de los k datos de la última racha pueden pertenecer a la serieN1 y dado que partimos de series que tienen medias similares, podemos comparar
directamente sus desviaciones típicas y podemos decir que si (σ 1 / σ 2 )=1, todos los datos de la
última racha pertenecerían a la serie N1 y estimaremos por el contrario que si (σ máx / σ mín )>3,
ningún dato de la última racha pertenece a la serie N1.
Para lo anterior, será necesario definir cuál de las dos desviaciones es la máxima y cuál
la mínima, con el fin de que la división siempre sea superior a 1. Sustituyendo σ por su
estimador , obtendremos en número de datos estimado DN1.
Trabajo Monográfico. Nuevo método para el tratamiento
y análisis de datos de auscultación de carreteras.
23
Una vez obtenido el número de datos que se estiman pertenece a N1, tendremos
definido el primer tramo del sentido ascendente que estará comprendido entre el dato 1 y el
dato n-k+DN1.
A partir de este momento se reiniciará el cálculo desde el dato n-k+DN1+1, hasta el
momento en que, o bien finalicen los datos, o bien se obtenga un resultado negativo de unode los test de las rachas que indicaría que existe una tercera agrupación, repitiéndose el
proceso hasta rastrear todos los datos de la serie. De esta manera conseguiremos definir en
sentido ascendente m subtramos, desde N1 hasta Nm.
4.2 Segunda División (Descendente)
De igual manera se repite todo el proceso pero esta vez empezando los cálculos en
sentido descendente, o sea desde el último dato hacia el primero y obteniendo entonces p
subtramos, desde D1 hasta D p.
4.3 División en Subtramos
Con la combinación de los tramos obtenidos en sentido ascendente con los obtenidos
en sentido descendente, figura 12, logramos una división de los datos en diversos subtramos.
Como vemos en la figura, se han representado una serie de datos que ha quedado
dividida en cuatro tramos en sentido ascendente, desde N1 hasta N4, en sentido descendente
ha quedado también dividida en otros cuatro tramos, desde D1 hasta D4 y con la combinación
de ambos sentidos la división final consta de 8 subtramos, nombrados desde ST 1 hasta ST 8, que
serán sobre los que se realice el último paso del proceso.
4.4 Recombinación Final de Subtramos
Debido a la sensibilidad del test de las rachas y la combinación de los subtramos
ascendentes y descendentes es posible que algunos subtramos consecutivos sean
estadísticamente similares y por lo tanto no sea procedente realizar esa división y lo lógico esrecombinar esos tramos adyacentes.