CENTRO DE INVESTIGACIÓN EN MATEMÁTICAS, A.C. “Segmentación de Zonas Urbanas en Imágenes de Satélite” Proyecto Tecnológico Maestría en Ciencias con Especialidad en Computación y Matemáticas Industriales Yolanda de Lira Domínguez Director de Proyecto Dr. José Luis Marroquín Zaleta Enero del 2004 Guanajuato, Gto, México
42
Embed
“Segmentación de Zonas Urbanas en Imágenes de Satélite”yolanda/cursos/semestre3/proyTec/Proyecto… · interpretación de firmas espectrales y ciertas características del
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
CENTRO DE INVESTIGACIÓN EN MATEMÁTICAS, A.C.
“Segmentación de Zonas Urbanas enImágenes de Satélite”
Proyecto Tecnológico
Maestría en Ciencias con Especialidad en Computación y Matemáticas Industriales
Capítulo 3 Tratamiento digital de imágenes ..................................................... 19
3.3. Cálculo de estadísticas e histograma de la imagen.................................... 20
3.4. Realces y mejoras de la imagen................................................................. 203.4.1. Expansión lineal.............................................................................................................. 22
3.4.2. Ecualización del histograma........................................................................................... 22
3.4.3. Expansión especial del contraste ................................................................................... 22
3.4. Composiciones en color.............................................................................. 23
3.5. Cambios de escala ..................................................................................... 24
Capítulo 4 El proceso de clasificación .............................................................. 26
4.1. Clasificador de mínima distancia euclidiana ............................................... 26
4.2. Clasificador de mínima distancia de Mahalanobis ...................................... 28
Desde el punto de vista de percepción remota, conviene destacar una serie de
bandas espectrales, que son las más frecuentemente empleadas con la tecnología
actual. Su denominación y amplitud varían según distintos autores. La
terminología más común es la siguiente:
- Espectro visible (0.4 a 0.7 mµ ). Se denomina sí por tratarse de la única
radiación electro-magnética que pueden percibir nuestros ojos, coincidiendo
con las longitudes de onda en donde es máxima la radiación solar. Suelen
distinguirse tres bandas elementales, que se denominan azul (0.4 a 0.5
mµ ) ; verde (0.5 a 0.6 mµ ), y rojo (0.6 a 0.7 mµ ), en razón de los colores
elementales asociados a esas longitudes de onda.
- Infrarrojo próximo (0.7 a 1.3 mµ ). A veces se denomina también infrarrojo
reflejado y fotográfico, puesto que puede detectarse a partir de films
dotados de emulsiones especiales. Resulta de especial importancia por su
capacidad para discriminar masas vegetales u concentraciones de
humedad.
- Infrarrojo medio (1.3 a 8 mµ ), en donde se entremezclan los procesos de
reflexión de la luz solar y de emisión de la superficie terrestre.
- Infrarrojo lejano o térmico (8 a 14 mµ ), que incluye la porción emisiva del
espectro terrestre.
- Micro-ondas (a partir de 1mm), con gran interés por ser un tipo de energía
bastante transparente a la cubierta nubosa.
Teniendo en cuenta que el flujo incidente sobre una superficie siempre es
reflejado, transmitido o absorbido y que la proporción del flujo incidente que es
reflejado, absorbido y transmitido depende de las características de dicha
superficie, nos resulta interesante conocer el comportamiento de dicha cubierta en
diferentes longitudes de onda, ya que esa proporción varía en distintas bandas del
espectro. Esto, de cara a realizar una más atinada discriminación, puesto que sólo
cuando existan divergencias espectrales entre dos superficies podrán éstas
separarse adecuadamente.
Fig. 2.4. Relación entre el flujo incidente y reflejado (Chuvieco, 1992)
A partir de medidas de laboratorio, se han obtenido unas curvas de reflectividad
espectral (relación que existe entre el flujo incidente y el reflejado por la superficie)
para las principales cubiertas terrestres (Fig. 2.5.).
Como puede observarse, algunas tienden a presentar una respuesta uniforme en
distintas longitudes de onda, mientras que otras ofrecen un comportamiento
mucho más selectivo [1].
Fig. 2.5. Signaturas espectrales típicas de distintas cubiertas. (Chuvieco, 1992)
La nieve presenta una reflectividad alta y constante, pues refleja la mayor parte de
la energía incidente a distintas longitudes de onda. Por el contrario, el agua
absorbe la mayor parte de la energía que recibe, tanto más según nos situamos
en longitudes de onda mayores. Por su parte, la vegetación presenta un
comportamiento muy cromático, con bajos valores de reflectividad en el espectro
visible y más elevados en el infrarrojo cercano.
2.5. El programa Landsat
Gracias a los resultados proporcionados por las primeras fotografías espaciales, la
agencia espacial norteamericana diseñó a fines de los 60 el primer proyecto
dedicado sólo a la observación de los recursos terrestres. Fruto de estos trabajos
fue la puesta en órbita del primer satélite de la serie ERTS (Earth Resource
Tecnollogy Satellite) el 23 de julio de 1972. Esta familia de satélites, fue
posteriormente denominada Landsat en 1975.
Landsat puede producir imágenes de todas las partes de la superficie terrestre sin
pedir permisos de los gobiernos y ofrece las imágenes a todos los que se
interesen en ellas a precios uniformes. Landsat suministró la primera base de
datos de la tierra completa con resoluciones espaciales y espectrales adecuadas
para varias aplicaciones. Los datos de Landsat están disponibles en forma digital.
Los satélites de Landsat de la primera generación: Landsat 1, 2 y 3 fueron
colocados en sus órbitas en los años 1972, 1975 y 1978. La segunda generación
de Landsat se constituye de dos satélites: Landsat 4 y 5, lanzados en 1982 y
1984. La principal aportación de estos satélites es la incorporación de un nuevo
sensor denominado Thematic Mapper (TM), especialmente diseñado para la
cartografía temática. Este sensor mejora su antecesor Multiespectral Scanner
(MSS) principalmente en los siguientes aspectos: pasa de 79 a 30 metros su
resolución espacial, incrementa la resolución espectral de 4 a 7 bandas, y la
resolución radiométrica pasa de 6 a 8 bits.
Las mejoras que ofrece el tensor TM facilitan una mayor precisión para la
cartografía temática, ampliando el rango de aplicaciones operativas tanto terrestre
como marinas. En 1993 se intentó poner en órbita el satélite Landsat 6 pero el
intento falló. El último satélite de esta familia, el Landsat 7, fue lanzado el 10 de
abril de 1999 y se caracteriza por una combinación de cobertura sinóptica, por alta
resolución espacial con bandas correspondientes a la observación visible del
infrarrojo y por una banda adicional pancromática de 15 m de resolución y un
rango espectral cubriendo el verde infrarrojo cercano. El Thematic Mapper (TM)
detecta las bandas espectrales de 1 a 7. A continuación se muestran las
características de cada banda. Por su resolución espacial gruesa (120 m) la banda
6 se utiliza rara vez, pero es adecuada para un levantamiento térmico.
Banda Longitud de onda
(en mµ )
Región del Espectro Características
1 0.45 – 0.52 Azul Penetración máxima por agua,
adecuada para la distinción
entre suelo y vegetación
2 0.52 – 0.60 Verde Delinea la reflectividad de la
vegetación
3 0.63 – 0.69 Rojo Delinea una banda de absorción
de clorofila importante para
distinguir tipos de vegetación
4 0.76 – 0.90 Infrarrojo cercano Adecuada para determinar el
contenido en biomasa y para el
mapeo de líneas de ribera
5 1.55 – 1.75 Infrarrojo medio Indica el contenido de agua en
suelos y vegetación; penetra
nubes delgadas, presenta
distintos tipos de vegetación en
contrastes diferentes
6 10.4 – 12.5 Infrarrojo térmico Imágenes nocturnas son
adecuadas para un mapeo
térmico y para estimar el
contenido de agua en los suelos
7 2.08 – 2.35 Infrarrojo medio Coincide con la banda de
absorción causada por iones
hidróxilos en minerales
Tabla 2.1. Características del Thematic Mapper
2.6. Morfología urbana
Teniendo en cuenta la gran complejidad espacial del fenómeno urbano, en donde
conviven actividades muy variadas sobre un reducido espacio, la aplicación de la
percepción remota a estos ámbitos es reciente y aún limitada. El principal
problema radica en la resolución espacial de los sensores espaciales,
excesivamente groseros para aportar nueva información sobre el entramado
urbano. (Welch, 1982).
Pese a esto, se cuenta con algunos estudios de aplicación que permiten mejorar
nuestra información sobre áreas remotas, en donde la cartografía disponible es
inadecuada. Trabajos de este tipo son los emprendidos, a partir de interpretación
visual, sobre Nigeria (Olorunfemi, 1987; Adeniyi, 1987) o China (Lo y Welch,
1977). Incluso en países más desarrollados, la cartografía de zonas urbanas
ofrece importantes problemas de actualización, debido al dinamismo que
normalmente ofrecen. La cobertura temporal de las imágenes espaciales estimula
su empleo en tareas de actualización, ya sea de los límites censales (Dietrich y
Lachowski, 1978), o del espacio edificado (Carter y Stow, 1979; Welch, 1980). A
partir de imágenes TM o SPOT, esta aplicación puede resultar cada vez más
viable.
Un poco más refinado resultaría el análisis de la imagen para inferir rasgos de la
morfología urbana. Los criterios empleados, en este caso, serían el tono, color y la
textura. A partir del primero puede deducirse la densidad de edificación, por
cuanto aquellas zonas que alberguen menor influencia del trazado viario ofrecerán
un tinte más oscuro. Asimismo, el tono indica si la zona cuenta o no con espacios
verdes, bien sea continuos (manchas uniformes), bien discontinuos (tinte rojo
salpicado en medio de los azules propios de la edificación). En cuanto a la
textura, indica el grado de mezcolanza propio de un determinado sector. A partir
de estos dos criterios, puede ensayarse una delimitación de sectores morfológicos
en una zona urbana.
Capítulo 3 Tratamiento digital de imágenes
El proceso de adquisición de una imagen digital difiere, sustancialmente, del
empleado en la fotografía aérea. Como es sabido, en cualquier sistema
fotográfico, la energía procedente de los objetos se registra sobre una superficie
sensible a la luz. Esta puede componerse de una o varias capas, formando,
respectivamente, una película pancromática o en color.
En el caso de los equipos óptico – electrónicos, no existe una superficie sólida de
grabación. El sensor explora secuencialmente la superficie terrestre, adquiriendo,
a intervalos regulares, la radiación que proviene de los objetos sobre ella situados.
La cadencia con la que el sensor realiza ese muestreo de la superficie terrestre
define precisamente la resolución espacial del mismo. Dicho en otras palabras, el
sensor detecta la radiancia media de una parcela del terreno equivalente al
tamaño del píxel, unidad visual más pequeña que aparece en la imagen. En
consecuencia, cada píxel de la imagen viene definido por un número entero,
traducción de la radiancia percibida por el sensor para una determinada parcela de
la superficie terrestre y en una determinada banda del espectro. Este valor
numérico se denominará, a partir de aquí, Nivel Digital (ND).
Teniendo presente esto, la organización de los datos en una imagen digital puede
hacerse en una matriz numérica de tres dimensiones. Las dos primeras
corresponden a las coordenadas geográficas de la imagen, mientras que la tercera
indica su dimensión espectral.
Con ese carácter matricial de cualquier imagen numérica, son más fácilmente
comprensibles las posteriores transformaciones aplicadas sobre ella. Estas son en
muchos casos, operaciones estadísticas comunes a otras matrices numéricas.
A continuación se presentan algunas operaciones realizadas a las imágenes de
satélite.
3.3. Cálculo de estadísticas e histograma de la imagen
Como se indicó anteriormente, cualquier operación aplicada sobre la imagen parte
de su carácter digital. Por tanto, conviene conocer las estadísticas elementales
que la definen, cara a su mejor interpretación y a orientar los posteriores procesos
de realce visual o transformación.
Por estas razones, cualquier sistema de tratamiento digital debe ofrecer opciones
para calcular estas estadísticas de la imagen, al menos de las medidas de
tendencia central o dispersión más habituales. Estas medidas nos permitirán una
primera valoración sobre el carácter de cada una de las bandas y su grado de
homogeneidad.
Además de estos valores medios, también resulta de gran interés contar con el
histograma de frecuencias de cada banda, puesto que nos informa sobre cómo se
distribuyen los ND en una determinada escena.
3.4. Realces y mejoras de la imagen
En esta parte se consideran aquellas técnicas dirigidas hacia la mejora de la
calidad visual de la imagen. En otras palabras, se trata de disponer mejor los
datos para su análisis visual, de tal forma que sean más evidentes los rasgos de
interés que presenta la imagen.
Los procesos de ajuste del contraste tienden a adaptar la resolución radiométrica
de la imagen a la capacidad del monitor de visualización. Cada sensor codifica la
radiancia recibida en un número determinado de ND, de acuerdo a las
características de su diseño. Ese rango digital puede no corresponder con el
número de niveles de visualización (NV) que facilita la consola gráfica, por lo que
resulta preciso ajustar, por algún procedimiento, ambos parámetros. En este
sentido, caben dos posibilidades:
i) que el sensor ofrezca un menor número de ND que el de NV facilitado
por el sistema de tratamiento
ii) que el sensor presente un número de ND que exceda la capacidad del
sistema.
En el primer caso, se deberá aplicar una expansión del contraste original, mientras
en el segundo una reducción al mismo.
La idea de contraste digital puede ilustrarse con un símil fotográfico. Una fotografía
aparece con poco contraste, desvaída, cuando no existe una gran diferencia entre
sus tonos más claros y más oscuros. De la misma forma podemos definir
digitalmente el contraste por relación a los ND máximo y mínimo de una imagen.
Tal definición puede apoyarse en cualquiera de las medidas de dispersión
comúnmente utilizadas en estadística (Schowengerdt, 1983).
De acuerdo con esto, es posible realzar ese contraste. Varios procedimientos
pueden conseguir este objetivo:
i) distribuir los NV linealmente, entre el máximo y mínimo ND de la imagen
ii) distribuir los NV a partir del histograma de los ND
iii) distribuir los NV en un determinado rango de interés
Estos son los tres procesos de expansión del contraste que a continuación se
analizan.
3.4.1. Expansión lineal
Es la forma más elemental de ajustar el contraste de la imagen al permitido por el
equipo de visualización. Basta distribuir linealmente de tal forma que el ND mínimo
y máximo de la imagen tengan asociados un NV de 0 y 255 respectivamente,
distribuyendo linealmente el resto entre ambos márgenes.
Para llevar a efecto esta transformación se precisa encontrar una función lineal,
que ajuste la relación ND-NV de acuerdo a la relación antes comentada.
3.4.2. Ecualización del histograma
La expansión lineal del contraste no tienen en cuenta las características del
histograma de la imagen, sino sólo sus extremos. Puede idearse una técnica de
realce más depurada, en donde se considere la forma de la distribución de
frecuencias en los ND originales.
Según este criterio, el NV de cada ND está en proporción no sólo a su valor, sino
también a su frecuencia. Aquellos ND con mayor número de píxeles serán los
que, proporcionalmente, ocupen un mayor rango de visualización en el monitor. El
proceso es más lento que el comentado previamente, pero ofrece mejores
resultados, especialmente si la imagen original presenta una distribución
gaussiana.
3.4.3. Expansión especial del contraste
La novedad de esta técnica radica en restringir el contraste a un rango específico
de ND, en donde se manifieste con mayor claridad una cubierta de interés. Por
ejemplo, en una aplicación sobre zonas marinas, convendrá resaltar
especialmente la visualización de los valores más bajos del histograma, aunque se
pierda contraste en otros rangos de la imagen.
La expansión especial puede realizarse señalando un umbral máximo y mínimo,
acorde con el rango digital de la cubierta que pretende realzarse (método lineal), o
limitando el histograma objeto a una ventana de la imagen donde se esté presente
dicha cubierta. En ambos casos, esta operación supone afinar mucho más la
representación visual de esa cubierta, en detrimento del contraste en otras áreas.
3.4. Composiciones en color
A partir de la información multi-espectral que generan la mayor parte de los
sensores espaciales, pueden obtenerse distintas composiciones de color. Basta
para ello aplicar cada uno de los tres colores primarios (azul, verde y rojo) a una
banda distinta de la imagen, seleccionada con el criterio y en el orden que se
estime más oportuno. El proceso permite visualizar, simultáneamente, imágenes
de distintas regiones del espectro, lo que facilita la delimitación visual de algunas
cubiertas. Por tratarse de bandas distintas, los realces aplicados a una
composición en color corresponden con los obtenidos en una expansión del
contraste, aplicada previamente a cada una de las tres bandas que intervienen en
el proceso.
La elección de las bandas para realizar la composición, y el orden de los colores
destinados a cada una, dependen del sensor sobre el que se trabaje y de la
aplicación última del proyecto. La composición más habitual es la denominada
falso color, fruto de aplicar los cañones de color rojo, verde y azul sobre las
correspondientes al infrarrojo cercano, rojo y verde, respectivamente. Esta
composición facilita la cartografía de masas vegetales, láminas de agua, ciudades,
etc., de ahí que se haya empleado profusamente en diversos estudios de análisis
visual.
3.5. Cambios de escala
Conviene manejar con cierta precaución el concepto de escala cuando se habla
de sensores óptico – electrónicos. La escala final de la imagen está en función del
tamaño con el que representemos el píxel, unidad mínima de información. Ahora
bien, la superficie real que ocupa el píxel es la misma, así como el ND que lo
define, independientemente del tamaño con el que éste se represente sobre el
monitor o el papel.
Hecha esta aclaración, obvia decir que en muchas situaciones el tratamiento
digital de imágenes requiere aumentar o disminuir el tamaño del píxel en pantalla.
Por cuanto la resolución física del monitor es constante (sólo admite un número
determinado de píxeles), el cambio de escala debe realizarse a través del
muestreo o replicación de los píxeles que componen la imagen.
Si pretende visualizarse un área con un número de píxeles superior a la
capacidad de la pantalla, basta seleccionar una muestra de la imagen original. En
pocas palabras, se trata de escoger uno de cada dos, tres o cuatro píxeles en la
imagen, para que pueda visualizarse sobre el monitor un área cuatro, nueve o
dieciséis veces más grande. Naturalmente que esto supone hacerlo con menos
detalle, ya que se está seleccionando sólo una parte de los ND originales. Sin
embargo, el proceso es muy útil en algunas instancias: por ejemplo, cuando se
pretende localizar una pequeña área de estudio sobre una escena completa. Así,
los programas de lectura de imágenes en cinta incluyen una rutina para saltar n
filas y columnas, con objeto de visualizar en pantalla un área más amplia de la que
permitirá el monitor. Sobre esa mayor superficie puede situarse el área de interés,
elegir sus coordenadas, y proceder a la lectura, píxel a píxel, sólo del sector de la
imagen.
El proceso contrario a la reducción se denomina magnificación, ampliación, o
simplemente zoom. Se trata de ampliar el tamaño del píxel sobre el monitor, con
objeto de estudiar una parte de la imagen con mayor detalle. Constituye una de las
opciones más frecuentes en tratamiento digital, puesto que facilita operaciones
muy comunes.
Capítulo 4 El proceso de clasificación Como se mencionó en el capítulo introductorio, esta tarea se lleva a cabo después
de darle un tratamiento a la imagen y consiste en definir primeramente las
categorías (fase de entrenamiento) y luego en etiquetar cada píxel de la imagen
en una de esas categorías (fase de asignación).
En nuestro caso, sólo se pretende segmentar las zonas urbanas, por lo que las
categorías definidas serán zonas urbanas y zonas no urbanas.
Tradicionalmente se han dividido los métodos de clasificación en dos grupos:
supervisado y no supervisado, de acuerdo a la forma en que son obtenidas las
estadísticas de entrenamiento. El método supervisado parte de un conocimiento
previo del terreno, a partir del cual se seleccionan muestras para cada una de las
categorías. Por su parte, el método no supervisado procede a una búsqueda
automática de grupos de valores homogéneos dentro de la imagen. En este caso,
queda al usuario la labor de encontrar correspondencias entre esos grupos y sus
categorías de interés.
Los criterios más comunes para establecer la asignación son: mínima distancia
euclidiana, por el cual el píxel se asigna a la clase de zonas urbanas si la distancia
euclidiana del píxel a la media es menor que un cierto umbral, y mínima distancia
de Mahalanobis, el cual es un proceso similar, pero en este caso se usa la
distancia de Mahalanobis.
En la siguiente parte se explican con más detalle cada uno de estos métodos.
4.1. Clasificador de mínima distancia euclidiana
El criterio más sencillo para asignar un píxel a una de las categorías consiste en
incluirlo como zona urbana si esta cercano a la media de esta categoría, es decir
que la distancia entre ese píxel y el centroide de clase de zona urbana sea
mínima. Lógicamente no se trata de una distancia geográfica, sino espectral,
consecuencia de comparar los ND de cada píxel con los del centro de las distintas
categorías, para todas las bandas que intervienen en el análisis.
Pueden considerarse varias formas de medir esa distancia espectral entre píxeles
y clases. La más empleada en este sentido, es la distancia euclidiana:
Donde id es la medida de la distancia entre el píxel ig y el centroide de clase de
zona urbana que se calcula como la raíz cuadrada del sumatorio de las diferencias
entre el ND de ese píxel y el ND medio de la categoría de zonas urbanas, para las
m bandas que intervienen en la clasificación. Tras calcular esta distancia para los
M puntos de la imagen, se procede a analizar cuales son los píxeles cuya
distancia al centroide de clase de zona urbana es menor que un cierto umbral.
La distancia que calcula este algoritmo es lineal, sin considerar la propia
dispersión de cada categoría o la correlación que exista entre las banda. Tiende,
por tanto, a delimitar grupos circulares de radio proporcional a la situación de las
zonas urbanas.
,...,1 para 1
Miggdm
kkikii =−=−= ∑
=
µµ
Centroide de la clase
de zonas urbanas
Para este método se requiere la estimación de la media para la zonas urbanas, el
cual se calcula como:
Donde N es el número de píxeles en la zona urbana. Una vez que se calcula esto,
se toma con este valor para las imágenes a clasificar.
4.2. Clasificador de mínima distancia de Mahalanobis
Algunos autores han propuesto modificaciones en el cálculo de la distancia que se
mencionó en la sección anterior, de tal forma que se considere la varianza de las
clases (Schowengerdt, 1983; Lo et al, 1986).
Para el clasificador de mínima distancia de Mahalanobis, se procede de manera
similar a el clasificador de mínima distancia euclidiana, sólo que ahora, la distancia
considerada es la de Mahalanobis, que se define por:
Donde M es el tamaño de la imagen ∑ es la matriz de covarianza (también
estimada), µ es la media estimada de igual manera que en la sección anterior, y
id es la distancia de Mahalanobis del píxel ig al centroide de la clase de zonas
urbanas.
En este caso, se considera la dispersión de la categoría de zonas urbanas, por lo
cual, delimita grupos elípticos definidos por la matriz de covarianza.
∑∈
=ZUi
igN1
µ
( ) ( ) ,...,1 para 1 Miggd iT
ii =−∑−= − µµ
La matriz de covarianza se estima como:
( )∑=
−−=∑N
i
Tii gg
1)( µµ
donde la sumatoria corre sobre los pixeles que son de la clase de zonas urbanas.
4.3. Operadores morfológicos
El procesamiento morfológico de imágenes constituye una clase de
transformaciones en la cual la forma y estructura de los objetos es modificada para
dilucidar su naturaleza morfológica (Barrera, et al., 1998). En toda la discusión que
sigue, las definiciones se aplican a imágenes binarias (dos valores) en donde los
objetos de interés han sido previamente segmentados.
Dos de las transformaciones básicas en la morfología matemática son la dilatación
y erosión. En la primera de éstas, un objeto crece uniformemente en su extensión
espacial, mientras que en la segunda el objeto reduce su extensión espacial
uniformemente. Estas dos operaciones básicas, y otras más, están basadas en
transformaciones de tipo intersecta o no intersecta (hit or miss) cuya definición es
Centroide de la clase
de zonas urbanas
como sigue: Se considera un elemento estructural de tamaño impar, el cual
recorre todas las posiciones definidas por los píxeles de la imagen; si el patrón
binario del templete coincide (hit) con el estado (0 o 1) de los píxeles de la imagen
cubiertos por éste, entonces en la imagen de salida el píxel en correspondencia
espacial con el centro del templete se pone en un estado binario predeterminado;
por el contrario, si el templete no coincide (miss) con el estado de los píxeles de la
imagen, el píxel de saluda se fija en el estado binario opuesto [3].
Dada una imagen binaria f y un elemento estructural h, se definen la erosión y
dilatación respectivamente como sigue:
E(f,h)(r)=1 si H(r) está contenido en F
=0 si no
D(f,h)(r)=1 si FÇH(r) es no vacío
=0 si no
Donde H(r)={r:h(x-r)=1}
F={r:f(r)=1}
Los operadores morfológicos se utilizan como post procesamiento, una vez que se
tiene una clasificación (digamos con mínima distancia euclidiana o de
Mahalanobis). Tienen la función de eliminar pequeños detalles en el fondo de la
imagen o llenar huecos en el objeto (zona urbana) y suaviza deformaciones del
mismo, esto con el propósito de mejorar los resultados obtenidos, eliminando
puntos aislados y cerrando la zona clasificada como urbana, para eliminar los
huecos en ésta. El resultado de aplicar estos operadores depende en gran parte
del elemento estructural que se tome.
Nota: No se presentan imágenes satelitales debido a que la distribución de las
imágenes con que se cuenta no es libre. Para cualquier información, por favor
contactar al autor.
Conclusiones y trabajo futuro
Conclusiones generales
Se desarrolló un software para tratamiento de imágenes del satéliteLANDSAT –TM en la que es posible efectuar todo tipo de transformacionesantes descritas, tales como: realces y mejoras de la imagen, composicionesen color, cambios de escala, etc. Al software desarrollado se le asignó elnombre de PROCIS (Procesamiento de Imágenes de Satélite)
La herramienta desarrollada permite segmentar las zonas urbanasempleando los métodos de mínima distancia euclidiana y mínima distanciade Mahalanobis.
La herramienta desarrollada permite además mejorar los resultadosobtenidos con la segmentación, usando operadores morfológicos.
El método de mínima distancia de Mahalanobis arroja mejores resultados que el
de mínima distancia Euclidiana, ya que éste último no considera la
dispersión ni la varianza.
Es importante considerar el entorno de la imagen para la segmentación, pues lainformación de un solo píxel en muchas ocasiones no es suficiente
para efectuar la clasificación.
Los operadores morfológicos disminuyen el error de segmentación, ya que elimina
puntos aislados que se clasificaron como zonas urbanas y llena huecos en
una zona urbana bien definida.
Trabajo futuro
Como trabajo futuro, se pueden mejorar los resultados empleando algunos
otros métodos que consideren la información en una vecindad para cada
píxel, en la cual se consideren otros aspectos de la imagen tales como
textura, tamaños, formas, etc.
Apéndice A. Manual de Usuario del software PROCIS
En este apartado podrá ver de una manera breve, cómo utilizar el software
PROCIS para tratamiento de imágenes de satélite y segmentación de zonas
urbanas.
A.1. Pantalla principal
La figura A.1 muestra la pantalla principal que aparece al momento de ejecutar el
programa. En esta pantalla se encuentra la mayoría de las tareas que realiza el
software para tratamiento de imágenes de satélite.
Figura A.1 Pantalla principal
A.2. Dimensiones del archivo
El primer paso consiste en determinar las dimensiones de la imagen que se va a
leer. Generalmente estas dimensiones se encuentran en un archivo de cabecera
asociado al archivo que contiene la imagen.
Figura A.2 Dimensiones de Archivo
En la figura A.2 se muestra la sección en la cual se introduce el tamaño de la
imagen. El número de renglones y columnas se asocia a alto y ancho de la
imagen respectivamente.
A.3. Selección de la combinación de color
En la figura A.3. se muestra la sección del software en la cual se selecciona la
combinación de color en que se desea visualizar la imagen.
Figura A.3 Combinación de color
La elección de las bandas para los canales rojo, verde y azul depende del objetivo
de la visualización.
A.4. Dimensiones de la imagen
En la sección de dimensiones de imagen se muestra el tamaño actual en píxeles
de la imagen que actualmente se observa. No es necesariamente el mismo
tamaño de la imagen leída en el archivo.
Figura A.4. Dimensiones de la imagen
En la figura A.4 se muestra la sección en la pantalla donde se muestran las
dimensiones de la imagen. Ya que aún no hay una imagen, el tamaño de esta es
cero en ambas dimensiones.
A.5. Lectura de archivo
Éste es el segundo paso para realizar la segmentación, y consiste en cargar las
bandas de la imagen. Al hacer clic en el botón que tiene un icono de fólder (Figura
A.5), se abre un cuadro de diálogo para leer un archivo con formato BIL, que ya
contiene la información de todas las bandas.
Figura A.5 Lectura de archivo
Figura A.6. Abrir archivo
En la figura A.5 se muestran los botones para abrir archivo, guardar imagen actual
y copiar imagen actual. En la figura A.6. se muestra el cuadro de diálogo para abrir
el archivo de extensión .bil que contiene la información de las bandas.
A.6. Zoom, selección y marcado
Figura A.7. Zoom, selección y marcado
En la figura A.7. se muestra la sección de la pantalla principal donde se
encuentran los botones para realizar acercamientos (zoom in), alejamientos (zoom
out), seleccionar una sección de la imagen que se desea ver a detalle y marcar en
forma manual zonas de interés.
El color del recuadro para seleccionar y del lápiz para marcar las zonas de interés
se puede seleccionar presionando el botón Seleccionar Color (Figura A.8.9.
Figura A.8. Selección de color
En la figura A.8. se muestran los botones para seleccionar color y limpiar
contornos. Una vez que se han guardado las marcas efectuadas en zonas de
interés, se puede guardar la imagen que contiene sólo las marcas (guardar bordes
en archivo del menú principal). Después de esto, si se desea, se puede limpiar la
imagen haciendo clic en el botón de Limpiar Contornos.
A.7. Realces
En la figura A.9. se muestran los botones para realizar los realces con el cual se
desea visualizar la imagen.
Figura A.9 Realces
Los botones corresponden a visualizar la imagen sin realce, con realce lineal, con
ecualizado de histograma y contraste especial respectivamente. El último botón es
para determinar hasta que nivel máximo se desea realizar el realce en cada banda
(Figura A.10).
Figura A.10. Opciones de color
Al hacer clic en el botón de colores, aparece la ventana de la figura A.10. donde se
puede seleccionar el nivel máximo para realce de cada banda.
A.8. Histograma y estadísticas
En la figura A.11. se muestran los botones correspondientes a ver histograma y
estadísticos respectivamente.
Figura A.11. Histograma y estadísticas
Al hacer clic en el botón de histograma, aparece la ventana de la figura A.12,
donde se muestran los histogramas de la imagen actual, correspondientes a cada
una de las bandas asociadas con los canales rojo, verde, azul. Se muestran los
histogramas de la imagen original y de la imagen después del realce con el que se
está visualizando la imagen.
Figura A.12 Histograma
Figura A.13. Estadísticas
Al hacer clic en el botón de estadísticos, aparece la ventana dela figura A.13. en
donde se muestran las estadísticas de cada banda asociada a los canales RGB
tanto de la imagen original, como de la imagen después del realce.
A.9. Cambios de escala
Al hacer clic en el botón submuestreo del submenú ver en el menú principal,
aparece la ventana mostrada en la figura A.14, donde se indica cada cuantos
píxeles tomar la muestra.
Figura A.14. Cambios de escala
A.10. Clasificación de zonas urbanas
Figura A.15. Clasificación de zonas urbanas
Al hacer clic en el botón de clasificar zonas urbanas del submenú procesar del
menú principal aparece la ventana que se muestra en la figura A.15, en la cual se
indican los parámetros para clasificación y el método deseado.
Primeramente, deben seleccionarse las bandas que se desean considerar para la
clasificación, luego seleccionar el método de clasificación y finalmente establecer
un umbral para clasificación. En el campo del umbral se dan inicialmente
umbrales sugeridos distintos para ambos métodos, los cuales son los que han
arrojado mejores resultados para clasificación.
A.11. Operadores morfológicos
Al hacer clic en el botón de operadores morfológicos del submenú procesar del
menú principal aparece la ventana que se muestra en la figura A.16, en la cual se
indica el tamaño de elemento estructural y si se desea aplicar una erosión o una
dilatación.
Figura A.16. Operadores Morfológicos
El elemento estructural que se emplea para los operadores morfológicos tiene las
formas mostradas en la figura A.17. para los correspondientes tamaños de
elemento estructural.
••••
••••••••••••
••••••••
•
••••
••••••••
•
••••
•
Figura A.17. Elementos estructurales.
Bibliografía[1] Chuvieco, Emilio, Fundamentos de Teledetección Espacial , Ediciones
RIALP, S. A. , España 1990. Primera Edición.
[2] Gallo, Ely, Segmentación de Imágenes de Satélite usando Modelos Ocultos
de Campos Markovianos, 2002 México. Tesis de Maestría. Centro de
Investigación en Matemáticas (CIMAT)
[3] Lira Chávez, Jorge, Introducción al tratamiento digital de imágenes, Fondo
de Cultura Económica. México 2002. Primera Edición.
[4] Marroquín, José Luis, apuntes del curso de Procesamiento de Señales
impartido por el Dr. José Luis Marroquín.
[5] Marroquín, José Luis, apuntes del curso Visión Computacional impartido