1 Reconocimiento de objetos Objetos etiquetados Extracción de las características Clasificación Cap.VII: Interpretación de las imágenes Análisis de las imágenes Etiquetamiento Imagen binaria Conectividad Cap.VII: Interpretación de las imágenes
18
Embed
Cap.VII: Interpretación de las imágenes€¦ · 1 Reconocimiento de objetos Objetos etiquetados Extracción de las características Clasificación Cap.VII: Interpretación de las
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
1
� Reconocimiento de objetos� Objetos etiquetados� Extracción de las características
Ejemplo: detectar objetos redondos� Dada la imagen ‘pillsetc.png’: A) Leer la imagen. B) Convertirla a
grises. C) Umbralizar con Otsu. D) Eliminar objetos menores 30. E) Realizar un cierre con elemento estructurante de disco de radio 2. F) Rellenar. G) Etiquetar H) Extraer las características de área, centroide y perímetro de cada objeto. I) Calcular el parámetro adimensional para cada objeto, siendo A el área y P el perímetro. J) Colocar en el centroide del objeto un circulo negro sitiende a ser un círculo (utilizar como criterio que lo es si ), en caso contrario poner una cruz.
2
4 A
P
π
2
40.8
A
P
π>
Ejemplo: detectar objetos redondos
RGB = imread('pillsetc.png');figure; imshow(RGB);
I = rgb2gray(RGB);threshold = graythresh(I);bw = im2bw(I,threshold);figure; imshow(bw)
� Perímetro: código encadenado(1 y )� Representación de la curva mediante una
función unidimensional� Signatura: distancia de un punto interior del objeto
(p.ej: centroide) a cada uno de los puntos fronteras.� Invarianza a la traslación
� Depende del punto inicial, se toma la distancia mayor� La invarianza a escala se consigue normalizando la
distancia
2
10
Descriptores de fronteras(3/4)� Signatura problemas
� Invariante a escala: normalización distancia [0 1]� Dependiente de la posición inicial: punto de máxima distancia� Sensible al punto interior� Curvas con concavidades
� Curvatura: variación de la tangente en el contorno� Histograma de la curvatura
� Invariante a traslación y rotación
fdiv
fκ
∇= ∇
Ejercicio
� Calcular la curvatura sobre el pixel indicado (empléese una máscara de Sobel).
( )
( )
, 0
, 8
x
y
f x y
f x y
∂ =
∂ =
( )
( )
, 0
, 0
x x
y y
F x y
F x y
∂ =
∂ =
( )( )
,0
,
f x yK div
f x y
∇= =
∇
2 1 0 1 2
2 1 0 1 2
2 1 0 1 2
2 1 0 1 2
− −
− − • − −
− −
Ejercicio� Escribir el código para calcular la curvatura
� Disciplina relacionada con la Inteligencia Artificial� Asignar los objetos a una clase� Imágenes, señales o cualquier tipo de medida� Características + conocimiento a priori
Atlas� El objeto a ser reconocido es comparado con un
conjunto de plantillas, teniendo en cuenta que puede haber habido traslaciones, rotaciones o cambio de escala.
� Muy utilizado en análisis médicas� ITK( Insight Toolkit: Registration and segmentation)
12
Métodos sintácticos� En este caso un objeto es visto como una
composición de subformas simples. Las subformasmás simple a ser reconocidas son llamadas primitivas y una forma compleja es representada en términos de interrelaciones entre estas primitivas. Este método tiene analogía con la sintaxis de un lenguaje.
� Hay problemas para separar en sus primitivas una forma que tiene mucho ruido.
Redes neuronales� Consiste en una red cuyos nodos son neuronas artificiales que se
conectan mediante enlaces que tienen distintas ponderaciones. Las redes neuronales tienen la habilidad de aprender complejas relaciones no lineales de entrada-salida usando procedimientos secuenciales de entrenamiento.
� Clasificación � Supervisada: MLP (Multilayer perceptron) y las redes de
funciones de base radial (RBF). � No supervisada se usa las redes de Kohonen conocidas
como Self-Organizing Maps (SOM)
Selección de las características� Particionar el espacio de las características� Propiedades de las características
� Discriminación� Fiabilidad� Independencia� Menor número de características
Longitud & ancho
13
Ejemplo de Fisher
4 4.5 5 5.5 6 6.5 7 7.5 82
2.5
3
3.5
4
4.5
longitud hoja
Anc
hura
hoj
a
setosa
versicolorvirginica
4 4.5 5 5.5 6 6.5 7 7.5 82
2.5
3
3.5
4
4.5
longitud hoja
Anc
hura
hoj
a
setosaversicolorvirginica
4 4.5 5 5.5 6 6.5 7 7.5 82
2.5
3
3.5
4
4.5
x
y
versicolor
setosavirginica
Clasificadores estadísticos(1/5)
� Teoría de la probabilidad para clasificar� Variables aleatorias� Requiere del conocimiento previo de las
funciones de densidad� Paramétricas o no paramétricas
� Probabilidad a priori: p(x|ωi)
Clasificadores estadísticos(2/5)
� Teoría de Bayes� Minimizar el error de clasificación: se asigna a la
clase con mayor probabilidad a posteriori:
� Distancia a la clase i
( )( ) ( )
( )|
|i i
i
p X pp X
p X
ω ωω =
( ) ( ) ( )( )ln |i i id X p X pω ω= −
14
Clasificadores estadísticos(3/5)
� Paramétrica� Modelizada por una densidad normal
� Función discriminante
( )( ) ( )1
1/ 22
1 1( | ) exp
22
T
i i i ik
i
p X X M X Mωπ
− ≡ − − Σ −
Σ
( ) ( ) ( )( ) ( ) ( ) ( ) ( )( )1
12
1ln | ln 2 ln ln
2 2
T
i i i i i i i i
kd X p X p X M X M pω ω π ω−
= − = + Σ + − Σ − −
Clasificadores estadísticos(4/5)
� Normal� Igualdad en la matriz de covarianza y todas las
clase equiprobables� Distancia de Mahalanobis
� Si además las características no están correladas y las varianzas son idénticas� Distancia euclídea
( ) ( ) ( )1T
i i id X X M X M−= − Σ −
( ) ( ) ( )T
i i id X X M X M= − −
Ejemplo� Dado los siguientes vectores de características de dos grupos,
determinar a que clase pertenece el nuevo elementos: {4,5}.
clase1 =1 23 31 52 23 3
clase2 =6 46 37 48 48 5
1
2
3M
=
2
1 0.5
0.5 0.5
Σ =
( ) ( ) ( )
( ) ( ) ( )
1
1 1 1 1
1
2 2 2 2
8.35
34
T
T
d X X M X M
d X X M X M
−
−
= − Σ − =
= − Σ − =
x
y
pdf(obj,[x,y])
0 1 2 3 4 5 6 7 8 91
1.5
2
2.5
3
3.5
4
4.5
5
5.5
6
1
1 0.25
0.25 1.5
− Σ =
−
2
7
4M
=
15
Problema� En la imagen de monedas (‘coins.png’) se trata de clasificarlas en
dos categorías: pequeñas y grandes. Se pide:1. Algoritmo de segmentación, etiquetado y extracción de las
características del área de cada objeto etiquetado. Explicarlo y escribir el seudo-código en Matlab.
2. Sabiendo que las áreas de las pequeñas son y de las grandes son y suponiendo distribuciones normales, calcular los parámetros de las
distribuciones y la probabilidad a priori de cada etiqueta.3. Determinar el umbral óptimo de Bayes.