Escuela Técnica Superior de Ingenieros Aeronáuticos Universidad Politécnica de Madrid TESIS DOCTORAL UTILIZACIÓN DE LOS ALGORITMOS GENÉTICOS PARA LA RESOLUCIÓN NUMÉRICA DE LOS PROBLEMAS DE OPTIMIZACIÓN EN MECÁNICA DEL VUELO Miguel Ángel Gómez Tierno
Escuela Técnica Superior de Ingenieros Aeronáuticos
Universidad Politécnica de Madrid
TESIS DOCTORAL
UTILIZACIÓN DE LOS ALGORITMOS GENÉTICOS
PARA LA RESOLUCIÓN NUMÉRICA DE LOS
PROBLEMAS DE OPTIMIZACIÓN EN
MECÁNICA DEL VUELO
Miguel Ángel Gómez Tierno
ESCUELA TÉCNICA SUPERIOR DE INGENIEROS AERONÁUTICOS
UNIVERSIDAD POLITÉCNICA DE MADRID
TESIS DOCTORAL
"UTILIZACIÓN DE LOS ALGORITMOS GENÉTICOS PARA
LA RESOLUCIÓN NUMÉRICA DE LOS PROBLEMAS DE
OPTIMIZACIÓN EN MECÁNICA DEL VUELO"
por: Miguel Ángel Gómez Tierno
Director de la Tesis: Prof. Dr. Juan J. Martínez García
Madrid, 11 de Septiembre de 1984
RESUMEN
Esta es una tesis interdisciplinaria.
Se pretende resolver numéricamente y mediante evaluaciones
de la función objetivo, un problema de optimización de Mecánica
del Vuelo matemático, sin ligaduras de igualdad, paramétrico, con-
tinuo y determinístico.
Para ello se emplean los Algoritmos Genéticos, que son mé-
todos probabilísticos adaptativos, basados en la imitación de
aquellas estrategias naturales que han permitido y permiten a los
seres vivos adaptarse casi totalmente a su entorno.
Por tratarse de métodos probabilísticos, los Algoritmos
Genéticos presentan ventajas respecto a los métodos determinís-
ticos cuando la dimensión del espacio en estudio es alta y cuan-
do la función objetivo es muy complicada.
Por tanto, para resolver un problema típico de una Cien-
cia Aplicada (la Mecánica del Vuelo), se utilizan técnicas de una
Ciencia Pura (la Matemática) o, más concretamente, de uno de sus
campos (la Teoría de la Optimización), basadas en la imitación
de hechos cuyo estudio corresponde a una Ciencia Natural (la
Biología) y, en particular, a una de sus ramas (la Genética).
De esta forma se subsanan en parte los problemas de la
incomunicación entre las ciencias y de la excesiva especializa-
ción del científico.
ii
A mis padres y a mi hermano.
Y a Valdeavellano de Tera.
iv
Agradecimientos
La presente Tesis ha sido desarrollada durante los dos
últimos años merced a un contrato sobre el tema, firmado por la
Cátedra de Mecánica del Vuelo, con el Centro de Operaciones de la
Agencia Espacial Europea (E.S.O.C.)
Vaya mi agradecimiento, en general, a todos los que de una
u otra forma, han hecho posible esta Tesis.
En particular, y en especial, agradezco al Dr. G. Janin de
E.S.O.C. y al Dr. J.J. Martínez-García, Catedrático de Mecánica
del Vuelo, sus valiosísimas directrices y sugerencias y su ines-
timable estímulo y apoyo.
También deseo expresar mi agradecimiento a todas las per-
sonas relacionadas con la Cátedra de Mecánica del Vuelo. Concre-
tamente, al profesor C. Bachmaier, por sus útiles indicaciones
y comentarios; al profesor T. Prieto, por sus desvelos y ayuda
con los programas de ordenador; al colaborador M. Belló por la
misma razón anterior; al delineante F. Huertas, por sus impeca-
bles figuras y dibujos y al mecanógrafo D. Franco por el excelen-
te acabado final de esta Tesis.
Madrid, Septiembre de 1984
v
ÍNDICE
1. INTRODUCCIÓN .............................................. 1
2. OPTIMIZACIÓN. CLASIFICACIÓN DE LOS PROBLEMAS DE OPTIMI-
ZACIÓN .................................................... 3
3. EL PROBLEMA DE OPTIMIZACIÓN ESTUDIADO .................... 7
4. MÉTODOS DE RESOLUCIÓN DEL PROBLEMA DE OPTIMIZACIÓN
ESTUDIADO .............................................. 9
4.1 Introducción .............................................. 9
4.2 Métodos determinísticos ................................... 11
4.2.1 Generalidades ...................................... 11
4.2.2 Métodos determinísticos globales ................ 12
4.2.2.1 Método de Hooke y Jeeves ................ 14
4.2.3 Métodos determinísticos globales ................ 18
4.3 Métodos probabilísticos .................................. 20
4.3.1 Generalidades .................................... 20
4.3.2 Categoría 1 ó Métodos de Montecarlo ............ 24
4.3.2.1 Búsqueda Aleatoria Pura ................ 25
4.3.2.2 Aproximación Chichinadze ................ 28
4.3.3 Categoría 2 ó Métodos de Rastreo Aleatorio ...... 32
4.3.3.1 Métodos de Rastreo Aleatorio Discretos .... 33
4.3.3.2 Método de Bremmerman .................... 37
4.3.3.3 Método Adaptativo de Matyas ............. 39
4.3.3.4 Método de Beltrami e Indusi ............ 42
4.3.4 Categoría 3 ó Métodos Mixtos ................... 46
4.3.4.1 Método Multipartida ................... 47
4.3.4.2 Método de Hartman S2 .................. 48
4.3.4.3 Método de las Constelaciones de Törn .. 50
4.3.4.4 Método Estocástico-Determinístico de
Fagiuoli ............................... 56
4.3.4.5 Método de Gaviano ..................... 57
5. LOS ALGORITMOS GENÉTICOS ................................. 59
5.1 Introducción ............................................. 59
5.2 El Modelo Simplificado de la Evolución .................. 62
5.3 Los Algoritmos (μ,λ) y (μ+λ) .............................. 65
5.3.1 Generalidades ................................... 65
5.3.2 Desarrollo de los Algoritmos (μ,λ) y (μ+λ) ...... 66
5.3.3 El Valor Esperado del Tamaño de Paso ........... 69
5.3.4 Los Modelos de Función Objetivo Utilizados ...... 72
5.4 Los Algoritmos (1,λ) y (1 + λ) ............................. 76
5.4.1 Generalidades .................................. 76
5.4.2 Características Teóricas Estudiadas ............ 77
5.4.3 Probabilidad de Éxito y Velocidad de Convergen-
cia para el Algoritmo (1 + 1) ....................... 80
5.4.3.1 Modelo de Corredor ..................... 81
5.4.3.2 Modelo Esférico ........................ 83
5.4.4 Probabilidad de Éxito y Velocidad de Convergen-
cia para los Algoritmos (1,λ) y (1+λ) ......... 85
5.4.4.1 Modelo de Corredor ...................... 86
5.4.4.2 Modelo Esférico ........................ 92
5.4.5 Tamaño de Paso Óptimo y Control del Tamaño de
Paso ............................................... 97
vi
5.4.5.1 Tamaño de Paso Óptimo y Control del
Tamaño de Paso para el Algoritmo (1+1).. 98
5.4.5.2 Tamaño de Paso Óptimo y Control del
Tamaño de Paso para los Algoritmos
(1,λ) y (1+λ) ............................ 101
5.4.6 Conclusiones ..................................... 108
5.5. Mejora de los Algoritmos Genéticos ..................... 109
6. DISEÑO DE PROGRAMAS PARA LOS ALGORITMOS GENÉTICOS
(1,λ) Y (1+λ) ............................................... 113
7. PRUEBA Y AJUSTE DE LOS PROGRAMAS DISEÑADOS .............. 116
7.1 Introducción ............................................... 116
7.2 Funciones objetivo de prueba ............................. 117
7.2.1 Generalidades .................................... 117
7.2.2 Funciones Objetivo de Prueba para Problemas de
Optimización sin Ligaduras ...................... 118
7.2.3 Funciones Objetivo de Prueba para Problemas de
Optimización con Ligaduras ...................... 120
7.2.4 Funciones Objetivo de Prueba para Problemas
Globales de Optimización ........................ 122
7.2.5 Funciones Objetivo de Prueba que Aparecen en
Problemas Técnicos Típicos ...................... 124
7.2.6 Funciones Objetivo de Prueba con Analogía
Biológica ....................................... 126
7.3 Resultados obtenidos ..................................... 132
8. APLICACIÓN DE LOS ALGORITMOS GENÉTICOS PARA LA RESOLU-
CIÓN DE UN PROBLEMA DE OPTIMIZACIÓN EN MECÁNICA DEL
VUELO ..................................................... 135
vii
8.1 Introducción .............................................. 135
8.2 El problema estudiado. Resolución teórica ............. 136
8.3 Resolución de un caso concreto mediante los Algo-
ritmos Genéticos ........................................ 141
9. CONCLUSIONES ............................................... 143
APÉNDICE I: LA REVOLUCIÓN DARWINISTA. EL EVOLUCIONISMO .... 145
APÉNDICE II: VOCABULARIO DE GENÉTICA BÁSICA ................ 150
REFERENCIAS Y BIBLIOGRAFÍA .................................. 155
viii
"Una mirada a los l i b r o s ,
dos a la vida"
J.W. Goethe
1. INTRODUCCIÓN
Esta Tesis es interdisciplinaria.
Se pretende resolver numéricamente un problema típico
de optimización en Mecánica del Vuelo, como es la maximización
del alcance de un misil cuyas masas y velocidades iniciales y
finales están fijadas. La formulación del problema y su resolu-
ción teórica que, afortunadamente, existe en el caso estudiado,
se recogen en el Capítulo 8.
Para resolver numéricamente el problema, se recuerda en
primer lugar qué se entiende por optimización y cuál es la cla-
sificación de los problemas de optimización (Capítulo 2).
En segundo lugar, se sitúa el problema de optimización
de Mecánica del Vuelo, cuya resolución se pretende, dentro de
la clasificación mencionada (Capítulo 3). Además se establece
la restricción adicional de que sólo se utilizarán evaluaciones
de la función objetivo.
Una vez centrado el problema, se pasa revista a los méto-
dos que permiten resolverlo (Capítulo 4). Existen dos grandes
grupos: los métodos determinísticos y los métodos probabilísti-
cos. De los métodos determinísticos se hace un somero resumen,
ya que se dispone de muy buenos tratados en el área. Se conside-
rarán únicamente aquellas técnicas que no utilicen derivadas.
En cuanto a los métodos probabilísticos, el estudio será más
detallado. Se propondrá una clasificación de estos métodos total-
mente original y se hará un breve resumen de las técnicas más
importantes dentro de cada una de las Categorías definidas.
El Capítulo 5 está ya completamente centrado en los Algo-
ritmos Genéticos. La definición que se propone en esta Tesis para
1
estos algoritmos es la siguiente: son métodos probabilísticos
adaptativos basados en la imitación de las estrategias utiliza-
das en la evolución natural de los seres vivos. En los distintos
apartados de este Capítulo se han obtenido conclusiones origina-
les muy interesantes. Entre ellas destacan el método de cálculo
y control del tamaño de paso óptimo para estos algoritmos y la
idea de que existe un algoritmo mejor que todos los demás y que
además es el más sencillo.
Una vez analizados los aspectos más importantes de los Al-
goritmos Genéticos, se pasa al diseño de programas de ordenador
que se basen en las estrategias estudiadas (Capítulo 6) y poste-
riormente a la prueba y ajuste de los programas diseñados, median-
te una serie de funciones objetivo de prueba (Capítulo 7).
Por último, y como ya se ha mencionado, el Capítulo 8 es-
tará dedicado a formular el problema de optimización de Mecánica
del Vuelo en estudio, a resolverlo teóricamente y a resolverlo
prácticamente en un caso concreto, mediante la aplicación de los
programas de ordenador desarrollados.
Se han incluido en esta Tesis dos Apéndices. En el primero
de ellos se pasa revista, de forma simplificada, a lo que fué la
Revolución Darwinista y a lo que es el Evolucionismo. Y en el se-
gundo, se ofrece un Vocabulario de Genética Básica, asímismo muy
simplificado. Con estos Apéndices se pretende resumir los conoci-
mientos biológicos y genéticos necesarios para el perfecto enten-
dimiento de esta Tesis.
2
2. OPTIMIZACIÓN. CLASIFICACIÓN DE LOS PROBLEMAS DE OPTIMIZACIÓN
La optimización de un objeto o de un sistema cualquiera es
el proceso que permite obtener la manera más eficiente de reali
zar sus objetivos, o, lo que es lo mismo, que permite obtener la
mejor opción entre todas las existentes.
Según esto, el proceso completo de optimización consiste
en:
- La proposición de todos los conceptos alternativos razo
nables que conduzcan a los objetivos propuestos.
- La optimización de cada concepto.
- La elección del mejor de los conceptos optimizados.
En esta Tesis se trata exclusivamente de la optimización
de un concepto o diseño dado de un sistema, es decir, del punto
segundo de la relación anterior.
Ante todo, es necesario disponer de una medida cuantitati
va de la efectividad o de la bondad del concepto del sistema es
tudiado, en función de una serie de variables de éste.
Las características independientes que distinguen una solu
ción de otra se denominan variables o parámetros del sistema u
objeto bajo consideración.
La variable dependiente que proporciona la medida de la
bondad del sistema se denomina función objetivo. Obsérvese que
este nombre de función objetivo se utiliza indistintamente en
los problemas de maximización y en los de minimización. Si se
trata de obtener un máximo, pueden emplearse otras dos denomina
ciones: función utilidad y función calidad. Si, por el contra-
3
rio, el extremo a obtener es un mínimo, el nombre alternativo
es función de costo.
A continuación se realiza una clasificación de los distin-
tos problemas de optimización que habitualmente aparecen en la
literatura especializada.
Se denomina problema experimental de optimización a aquel
problema en el que la relación funcional entre la función obje-
tivo y los parámetros es desconocida. Entonces será necesario
realizar una serie de experimentos con el objeto físico propia-
mente dicho o con un modelo físico adecuado que tenga su mismo
comportamiento.
Muchas veces es imposible una investigación exhaustiva de
todas las posibles soluciones para un problema de este tipo y,
al mismo tiempo, una selección arbitraria de casos puede condu-
cir a resultados erróneos. Por ello, se deben utilizar las lla-
madas estrategias, que son esquemas de experimentación que tie-
nen en cuenta la información obtenida en experimentos previos
con el fin de seleccionar el próximo caso a investigar.
En caso de que sea posible la construcción de un modelo ma-
temático del objeto o sistema considerado, es decir, cuando sea
conocida la relación funcional entre la función objetivo y las
variables o parámetros, se hablará de un problema matemático de
optimización.
En muchos problemas de optimización los valores de los
parámetros solución del problema han de satisfacer, además, una
serie de restricciones llamadas ligaduras. Estas ligaduras pue-
den ser de igualdad o de desigualdad, según se utilicen los sig-
nos (=) ó ( ) respectivamente. Los problemas en que aparezcan
restricciones se denominan problemas de optimización con liga-
4
duras, y aquellos en los que no aparezcan problemas de optimi-
zación sin ligaduras.
Si la función objetivo y las ligaduras están sujetas a per-
turbaciones estocásticas, se estará en presencia de un problema
estocástico de optimización y en caso contrario de un problema
determinístico de optimización.
Se habla de problema estático de optimización o problema
paramétrico de optimización cuando la solución del problema no
cambia con el tiempo. Si la función objetivo y las ligaduras
son funciones lineales de las variables se tiene un problema
de programación lineal y en caso contrario un problema de pro
gramación no lineal.
Cuando la solución del problema es función del tiempo, la
denominación utilizada es problema dinámico de optimización.
Este problema se describe normalmente mediante un conjunto de
ecuaciones diferenciales y una función objetivo, que puede ser
una integral. Matemáticamente estos problemas han sido tratados
de forma adecuada desde distintos puntos de vista, como son el
cálculo de variaciones y la programación dinámica.
En algunos casos las variables del sistema sólo pueden
tomar valores discretos, en cuyo caso se trata de un problema
discreto de optimización.
Por último, aquel problema en el que se pretenda determi
nar un óptimo local se denomina problema local de optimización
mientras que si lo que se busca es el óptimo global se hablará
de un problema global de optimización. Un óptimo global en un
punto, implica que el valor de la función objetivo en ese punto
es mejor que en cualquier otro de su dominio de definición. Por
5
otra parte, un óptimo local en un punto significa que el valor
de la función objetivo en ese punto es mejor que en cualquier
otro situado en sus cercanías. El óptimo global de una función
objetivo puede obtenerse eligiendo el mejor de todos sus ópti-
mos locales, ya que un óptimo global también lo es local.
6
7
3. EL PROBLEMA DE OPTIMIZACIÓN ESTUDIADO
Entre todos los posibles problemas de optimización resu
midos en el capítulo anterior, esta Tesis únicamente se centra
rá en aquellos problemas de optimización
matemáticos, sin ligaduras de igualdad, paramétricos, continuos
y determinísticos
Se considerarán problemas matemáticos sin ligaduras de
igualdad, es decir, se pretende optimizar (maximizar o minimi
zar) la función objetivo
y = f(x) 3/1
donde
y valor de la función objetivo
x vector de variables o parámetros
n dimensión del espacio
sin ligaduras o, como máximo, con las ligaduras de desigualdad
gj(x) 0 j = 1(1)m 3/2
Para adoptar un punto de vista lo mas general posible, se
supondrá que la única forma de obtener información del problema
es a través de evaluaciones de la función objetivo.
Esta falta de información a priori o situación de "black
box" aparece por ejemplo, cuando las funciones tienen una forma
analítica conocida pero muy complicada, por lo que es imposible
calcular sus derivadas, o cuando las funciones tienen cambios muy
bruscos, tanto si son continuas como si no lo son.
Por último, es conveniente aclarar lo siguiente: si una
función objetivo f(x) tiene un máximo (o mínimo) en el punto x1,
la función -f(x) tendrá en ese mismo punto un mínimo (o máximo).
Por ello, a lo largo de esta Tesis se hablará de minimización
(de igual forma podría hablarse de maximización) y de función
objetivo o función de costo.
8
4. MÉTODOS DE RESOLUCIÓN DEL PROBLEMA DE OPTIMIZACIÓN ESTUDIADO
4.1 INTRODUCCIÓN
En este capítulo se resumirán aquellos métodos de resolución
numérica de los problemas de optimización que constituyen la base
fundamental de los distintos algoritmos de cálculo existentes.
Ante todo, hay que señalar que un problema de optimización,
en general no tiene por qué ser resoluble. Es más, normalmente
sólo podrá obtenerse una aproximación del óptimo e incluso a
veces ni siquiera eso. Por ejemplo, parece difícil encontrar
un método que obtenga el mínimo de la siguiente función:
4.1/1
Los métodos existentes para resolver la optimización de
problemas matemáticos sin ligaduras de igualdad, paramétricos,
continuos y determinísticos pueden clasificarse en dos grandes
categorías:
- Métodos determinísticos
- Métodos probabilísticos
Los métodos determinísticos calculan el mínimo de la fun
ción objetivo mediante la aplicación de reglas determinísticas,
mientras que los métodos probabilísticos utilizan para ello,
al menos parcialmente, reglas probabilísticas.
Es importante resaltar la diferencia existente entre cla
sificación de problemas de optimización y clasificación de mé-
9
todos de resolución. Por ejemplo, un problema determinístico
de optimización puede resolverse mediante un método determinís
tico y también mediante uno probabilístico.
A continuación, en el apartado 4.2 se resumen sucintamente
los métodos determinísticos y en el apartado 4.3 se estudian,
con mayor amplitud, los métodos probabilísticos.
10
4.2 MÉTODOS DETERMINÍSTICOS
4.2.1 Generalidades
Los métodos determinísticos permiten calcular el mínimo de
la función objetivo mediante la aplicación de reglas determinís-
ticas.
Estos métodos pueden clasificarse en
- Métodos locales, y
- Métodos globales
dependiendo de su capacidad para resolver problemas locales de
optimización, en el primer caso, y problemas globales, en el
segundo.
En este apartado se presenta a su vez una sucinta clasifi
cación de los métodos locales y globales utilizados en la re
solución de problemas matemáticos, sin ligaduras de igualdad,
paramétricos, continuos, determinísticos y locales o globales
respectivamente.
De nuevo se hace notar que sólo se considerarán aquí aque
llos métodos que utilicen evaluaciones de la función objetivo
como único instrumento para calcular el mínimo.
11
4.2.2 Métodos determinísticos locales
Los métodos determinísticos locales permiten la resolución
de problemas locales de optimización.
Estos métodos pueden dividirse en métodos directos e indi
rectos. Los métodos directos calculan el mínimo mediante compara
ción directa de los valores de la función objetivo en dos o más
puntos y los indirectos lo hacen a través de una condición ne
cesaria para el mínimo (Ref. 1).
De alguna forma los métodos indirectos utilizan el concepto
de derivada de la función objetivo, por lo que no se tendrán en
cuenta en esta Tesis.
La tabla 4.2.2/1 muestra la clasificación de los métodos
determinísticos locales directos que no utilizan derivadas, em
pleados en la optimización de problemas matemáticos sin ligadu
ras de igualdad, paramétricos, continuos, determinísticos y lo
cales.
En el párrafo 4.2.2.1 se esboza uno de estos métodos, cono
cido como Método de Hooke y Jeeves, el cual ha servido de base
a varios métodos probabilísticos.
12
TABLA 4.2.2/1
MÉTODOS DETERMINISTICOS LOCALES DIRECTOS, QUE NO UTILIZAN DERI
VADAS, EMPLEADOS EN LA OPTIMIZACIÓN DE PROBLEMAS MATEMÁTICOS,
SIN LIGADURAS DE IGUALDAD, PARAMÉTRICOS, CONTINUOS, DETERMINÍS
TICOS Y LOCALES
Espacio Unidimensional
- Métodos de Eliminación
- Búsqueda Lineal Simultánea
· Búsqueda uniforme
· Búsqueda con Distribución Asimétrica
· Búsqueda con Distribución Uniforme de Pares
de Puntos
- Búsqueda Lineal Secuencial
· Búsqueda Dicotómica
· Búsqueda Fibonacci
· Método de la Sección Áurea
Espacio Multidimensional
SIN LIGADURAS
- Métodos de Eliminación
- Método Simple de la Malla
- Método Secuencial de las Tangentes
- Búsqueda Dicotómica Multivariable
- Métodos de Descenso
- Método Cíclico en las Coordenadas
- Método de Hooke y Jeeves
- Método de Rosenbrock
- Método Simplex de Spendley, Hext y Himsworth
CON LIGADURAS DE DESIGUALDAD
- Método de las Funciones de PenalizaciÓn y Barrera
13
4.2.2.1 Método de Hooke y Jeeves
El método de Hooke y Jeeves se basa en la idea de que es
conveniente utilizar de nuevo una dirección de búsqueda que ha
ya tenido éxito en etapas anteriores.
Se realizan dos tipos de búsqueda (ver fig. 4.2.2.1/1):
búsqueda exploratoria y búsqueda guiada.
La minimización a lo largo de las distintas direcciones
se puede efectuar de forma continua o mediante etapas discretas.
A continuación se presenta un algoritmo de minimización pa
ra la versión de etapas discretas (Ref. 2).
Etapa 0. Elegir, como criterio de parada, un escalar ε mayor que
cero y suficientemente pequeño. Elegir el tamaño de pa
so inicial, y un factor de aceleración α > 0.
Elegir también un punto de partida, x1 . Hacer y = x1
y k = j = 1.
Etapa 1. Si f(yj + Δdj) - f(y
j) < 0, donde d
j es la dirección
coordenada j-ésima, el intento ha tenido éxito. Hacer
yj+1 = yj + Δdj e ir a 2.
De otra forma, el intento ha sido un fracaso.
Si f(yj-Δd
j) -f(y
j) < 0, hacer y
j+1 =y
j-Δd
j e ir a 2.
De otra forma, hacer yj+1 = y
j e ir a 2.
Etapa 2. Si j < n, hacer j = j + 1 e i r a 1 .
De otra forma, si f(yn + 1
)-f(xk) < 0 ir a 3.
De otra forma, ir a 4.
Etapa 3. Hacer xk + 1
= yn + 1
e y1 = x
k + 1+ α ( x
k + 1- x
k) . Hacer
k = k+1, j = 1 e ir a 1.
14
Etapa 4. Si , parar; xk es la solución. De otra forma, ha
cer Δ = Δ/2, y 1 = x
k, x
k + 1 = x
k, k = k+1, j = 1, e ir
a 1.
La fig. 4.2.2.1/2 ilustra los puntos generados mediante es-
te método para la función objetivo f(x) = (x1-2)4 + (x1-2x2)
2
y para el punto inicial (0.0,3.0).
15
16
FIGURA 4.2.2.1/1
MÉTODO DE HOOKE Y JEEVES. BÚSQUEDAS EXPLORATORIA Y GUIADA.
17
FIGURA 4.2.2.1/2
MÉTODO DE HOOKE Y JEEVES CON ETAPAS DISCRETAS. (Los números in
dican el orden en que se generan los puntos).
4.2.3 Métodos determinísticos globales
Los métodos determinísticos globales pretenden resolver
los problemas globales de optimización.
En general, estos métodos encuentran muchas dificultades
para obtener el óptimo global, y a veces sólo se puede asegurar
la convergencia hacia un óptimo local.
No obstante, han sido desarrollados distintos métodos que
no utilizan derivadas y que proporcionan buenos resultados cuan-
do se efectúan algunas simplificaciones en la forma de la función
objetivo. Entre los que resuelven problemas sin ligaduras están
(Ref. 3, Art. 2):
- Técnicas de Cobertura Espacial
- Técnicas de las Regiones de Atracción
Las primeras cubren el espacio a estudiar con un conjunto
de puntos seleccionados de forma no aleatoria y posteriormente,
mediante la comparación de los valores de la función objetivo
en esos puntos, obtienen el óptimo global. Entre las Técnicas
de Cobertura Espacial destacan tres métodos:
- Método Simple de la Malla
- Método de Evtushenko
- Método de Shubert
Las Técnicas de las Regiones de Atracción se basan en la
identificación de un conjunto de condiciones iniciales desde las
que es posible calcular óptimos locales mediante algún algoritmo
18
de optimización local. Una vez que han sido obtenidos todos los
óptimos locales, la comparación de los valores correspondientes
de la función objetivo proporciona el óptimo global.
19
4.3 MÉTODOS PROBABILÍSTICOS
4.3.1 Generalidades
Los métodos probabilísticos pueden definirse como aquellos
métodos capaces de determinar el mínimo de una función objetivo
utilizando para ello, al menos parcialmente, números aleatorios
y probabilidades.
La aplicación de los métodos determinísticos a problemas
donde la función objetivo es muy complicada o bien depende de
muchos parámetros (la dimensión del espacio es alta), presenta
grandes dificultades. Asímismo, los métodos determinísticos
globales, para resolver problemas globales de optimización,
solamente pueden asegurar la convergencia global si la función
objetivo satisface exigencias bastante estrictas.
Para resolver este tipo de problemas fueron y están siendo
desarrollados los métodos probabilísticos. Estos métodos presen
tan una serie de ventajas y de desventajas.
Entre las ventajas pueden señalarse:
- Resuelven problemas muy generales con poca información.
- Normalmente se requiere poco esfuerzo para obtener una
primera aproximación del óptimo, lo cual es suficiente
para muchos problemas prácticos. Sin embargo, puede ne
cesitarse un gran esfuerzo para mejorar esa primera apro
ximación.
Entre las desventajas más importantes están:
20
- Base teórica muy limitada. La mayor parte de los métodos
han sido desarrollados como algoritmos particulares.
- Difícil tratamiento de las ligaduras. La única forma exis
tente de tenerlas en cuenta consiste en determinar para
cada valor de la variable dependiente si se cumplen o no
las ligaduras, aceptando o rechazando respectivamente el
resultado obtenido.
Los aspectos positivos pueden ser fundamentales para resol
ver los problemas que aparecen en algunas misiones espaciales
típicas, mientras que las desventajas tienen menos importancia
y pueden ser subsanadas desarrollando algoritmos especiales que
resuelvan el problema específico en consideración.
Realizar un estudio sistemático de los métodos probabilís-
ticos es una tarea de gran dificultad, debido a la diversidad
de métodos particulares existentes, a la falta total de siste
matización en el área y a las distintas y a veces contradicto
rias nomenclaturas utilizadas.
No obstante, en esta Tesis se realiza un primer intento
de clasificación.
Los métodos probabilísticos hacen uso de dos clases de
técnicas distintas:
- Técnicas de Cobertura Espacial
- Técnicas de Rastreo Aleatorio
Una Técnica de Cobertura Espacial es un procedimiento que
cubre el espacio a estudiar con puntos seleccionados de forma
aleatoria y que después procede a calcular el óptimo mediante
21
investigación directa de los valores de la función objetivo en
todos los puntos seleccionados.
Una Técnica de Rastreo Aleatorio es un procedimiento que a
partir de un punto (o un conjunto de puntos, xk ,
xk-1,...,x1) define, utilizando números aleatorios y probabili
dades , un nuevo punto para el que el valor de
la función objetivo satisface una condición de desigualdad de
terminada (por ejemplo, f(xk+1) < fíx 1), 1 = 1(1)k).
De acuerdo con la definición dada, un método se dice que
es probabilístico si incluye elementos estocásticos. Por tanto,
este tipo de métodos pueden utilizar técnicas determinísticas
en alguna de sus partes.
Tomando en consideración todo lo anteriormente dicho, en
esta Tesis se propone la siguiente clasificación para los méto
dos probabilísticos:
Categoría 1 ó Métodos de Montecarlo: métodos que utilizan única
mente Técnicas de Cobertura
Espacial.
Categoría 2 Ó métodos de rastreo aleatorio: métodos que utilizan
únicamente Técnicas de Ras
treo Aleatorio.
Categoría 3 ó métodos mixtos: métodos que utilizan simultánea
mente técnicas determinís
ticas y probabilísticas o
diferentes tipos de técni
cas probabilísticas.
22
Cada una de las categorías anteriores pueden subdividirse
a su vez en dos grupos:
- Métodos Adaptativos
- Métodos no Adaptativos
Un método se llamará adaptativo cuando en cierta etapa
se utiliza la información proporcionada por etapas anteriores
con el fin de seleccionar algunos parámetros internos del mé
todo y de esta forma guiar la búsqueda. El método será no adap
tativo cuando esta guía no se realiza.
Los métodos probabilísticos de optimización, englobados
en las Categorías 1, 2 y 3, se estudian a continuación en los
subapartados 4.3.2, 4.3.3 y 4.3.4, respectivamente.
23
4.3.2 Categoría 1 ó métodos de Montecarlo
Los métodos de Montecarlo utilizan únicamente Técnicas de
Cobertura Espacial.
La aproximación probabilística a la solución de los proble
mas de optimización mediante las Técnicas de Cobertura Espacial
se basa en el siguiente resultado (Ref. 4, Art. 1):
Se supone que la región de interés de la función objetivo
a optimizar es el conjunto finito Sn contenido en ,
Si An es un subconjunto de Sn con medida m, tal que
4.3.2/1
y si p(An,N) es la probabilidad de que al menos un punto de
una secuencia de N puntos distribuidos uniformemente de forma
aleatoria sobre S n, caiga en A n, entonces
4.3.2/2
Estas técnicas son especialmente útiles para resolver pro
blemas globales de optimización.
Existen diversos métodos pertenecientes a este grupo. Algu
nos de ellos han sido seleccionados en esta Tesis y se presentan
a continuación.
24
4.3.2.1 Búsqueda Aleatoria Pura
El método más simple dentro de la Categoría 1 es la bús
queda aleatoria pura. Consta de las siguientes etapas (Ref. 4,
Art. 1 y Ref. 5):
Etapa 1. Evaluar f(x) en N puntos elegidos aleatoriamente se
gún una distribución uniforme sobre Sn.
Etapa 2. Mediante la comparación directa de los resultados de
la etapa 1, determinar el mínimo global.
En este algoritmo puede introducirse un test de hipótesis.
El mínimo global estimado se acepta únicamente si tests adicio
nales confirman su validez con un cierto nivel de confianza.
La búsqueda aleatoria pura está basada en la siguiente pro
piedad: puede demostrarse que si (donde An es un
subconjunto del dominio de definición de f(x), Sn) de forma que
4.3.2.1/1
donde m(An) es la medida de An, entonces
p(An,N) = 1 - (1-α) N, y 4.3.2.1/2
4.3.2.1/3
donde p(An,N) es la probabilidad de que al menos un punto de los
N caiga en An.
25
El número de puntos N requeridos para tener una probabili
dad alta de caer en una pequeña región que contenga al óptimo
global es muy alto. Por ejemplo, para α = 0.001 y p = 0.9, se
obtiene N = 2300.
Esta es la razón por la que se han propuesto distintas va
riantes para mejorar este método. Entre ellas, se pueden mencio
nar:
- Realizar optimizaciones locales desde puntos iniciales
distintos distribuidos uniformemente. Este tipo de méto
dos pertenecen a la Categoría 3.
- Dividir el dominio Sn en subdominios en cada uno de los
cuales sólo se permite un punto. Con este procedimiento
es posible evitar puntos que estén demasiado juntos en-
tre sí.
La figura 4.3.2.1/1 ilustra este método para una función
objetivo arbitraria.
26
27
FIGURA 4.3.2.1/1
BÚSQUEDA ALEATORIA PURA
4.3.2.2 Aproximación Chichinadze
Este método se basa en la utilización de una función de
probabilidad P(V), donde P(V) es la probabilidad de que se sa
tisfaga la condición f(x) > V siempre que x se elija de forma
aleatoria y con distribución uniforme sobre el espacio Sn (Ref.
3, Art. 2).
Obsérvese que el mínimo global de la función objetivo (ver
fig. 4.3.2.2/1) se produce cuando
P(V) = 1 4.3.2.2/1
y el máximo global cuando
P(V) = 0 4.3.2.2/2
Obviamente, no se conoce la expresión analítica de la fun
ción P(V). Sin embargo, si se calcula la función objetivo f(x)
en N puntos aleatoria y uniformemente distribuidos y si se re
presenta el número de puntos en los que f(x) > Vi, donde Vi in
dica el nivel considerado, por m i(V i,N), entonces la relación
mi/N es una aproximación de P(Vi) que mejora cuando N
Chichinadze demostró que
4.3.2.2/3
Para obtener la solución P(V) = 1, él sugiere ajustar las
relaciones mi/N mediante una combinación lineal de polinomios
28
29
ortogonales Pj(V). Los coeficientes λ
j se determinan minimizan
do alguna medida de la distancia existente entre y
los valores mi/N en los distintos V
i. La raíz de la ecuación
4.3.2.2/4
representada por V* en la figura 4.3.2.2/2, proporcionará una
estimación del mínimo global de f(x).
La aproximación Chichinadze consta, por tanto, de las si
guientes etapas:
Etapa 1. Seleccionar N puntos sobre Sn , de forma aleatoria, me
diante una distribución uniforme.
Etapa 2. Evaluar f(x) en esos N puntos.
Etapa 3. Fijar los diferentes niveles Vi.
Etapa 4. Calcular el número de puntos, mi, en los que f(x) > Vi
así como las relaciones mi/N.
Etapa 5. Ajustar las relaciones mi/N mediante una combinación
lineal de polinomios ortogonales, P j(V), obteniendo los
coeficientes λj.
Etapa 6. Obtener V*, raíz de la ecuación
·
V* es una estimación del valor de f(x) en el mínimo global.
La base teórica de esta aproximación se describe de forma
más rigurosa en la Ref. 3, Art. 9.
30
FIGURA 4.3.2.2/1
APROXIMACIÓN CHICHINADZE. NIVELES CONSIDERADOS DE f(x)
31
FIGURA 4.3.2.2/2
APROXIMACIÓN CHICHINADZE. PROBABILIDAD DE SATISFACER LA CONDI
CIÓN f (x) > V Y AJUSTE MEDIANTE COMBINACIÓN LINEAL DE POLINOMIOS
ORTOGONALES.
4.3.3 Categoría 2 ó métodos de rastreo aleatorio
Los métodos de rastreo aleatorio utilizan únicamente Téc
nicas de Rastreo Aleatorio para resolver el problema de optimi-
zación considerado.
En estos métodos los requerimientos para lograr una conver
gencia local rápida son diametralmente opuestos a los requeri
mientos para conseguir la convergencia global. La condición más
importante para asegurar la convergencia local es la selección
adecuada del tamaño de paso (Ref. 6).
Hay muchos métodos dentro de esta Categoría. La diferencia
entre ellos se basa, fundamentalmente, en la forma de obtener
nuevos puntos a partir de los anteriores (selección del vector
aleatorio Δxi tal que x
i+1 = x
i + Δ x
i) .
Los métodos de rastreo aleatorio más significativos se han
extraído de la literatura especializada y se describen a conti
nuación.
32
33
4.3.3.1 Métodos de Rastreo Aleatorio Discretos
Los métodos de rastreo aleatorio discretos son algoritmos
de rastreo aleatorio con un número finito de direcciones de
búsqueda (Ref. 3, Art. 18).
A partir de un punto, xi є Sn , donde , se obtiene
el punto xi+1 є S
n mediante
xi + 1
= xi+ Δ x
i 4.3.3.1/1
donde los incrementos Δxi tienen longitud unidad y son de la
forma:
4.3.3.1/2
Se consideran, por tanto, 2n direcciones de búsqueda. Para
cada paso, la dirección de búsqueda concreta se elige aleatoria
mente con distribución uniforme, entre las 2n posibles.
Existen dos algoritmos básicos de este tipo:
- Rastreo aleatorio con retorno
Este algoritmo consta de las etapas siguientes:
Etapa 0. Seleccionar x° e Sn. Calcular f(x°). Hacer i = 0.
Etapa 1. Elegir aleatoriamente con distribución uniforme, un
valor Δxi entre los 2
n posibles.
Etapa 2. Calcular xi+1 = x
i + Δx
i y f ( x
i + 1) .
34
Etapa 3. Si xi+1 є S
n ir a 4. De otra forma, ir a 1.
Etapa 4. Si f(xi + 1
)-f(xi) < 0, hacer i = i+1 e ir a 1.
De otra forma, hacer xi+1 = x
i, i = i+1 e ir a 1.
Esto significa que si en una etapa se ha tenido éxito,
se elige aleatoriamente nueva dirección de búsqueda. Si no,
se vuelve al último punto válido.
La figura 4.3.3.1/1 ilustra este método para la función
objetivo f(x) = (x1-2)4 + (x1-2x2)
2 y para el punto inicial
(0.0,2.0).
- Descenso aleatorio
Este algoritmo consta de las siguientes etapas:
Etapa 0. Seleccionar xo є Sn . Calcular f(x
o). Hacer i = 0.
Etapa 1. Elegir aleatoriamente con distribución uniforme, un
valor de Δxi entre los 2
n posibles.
Etapa 2. Calcular xi + 1
= xi + Δx
i y f ( x
i + 1) .
Etapa 3. Si xi+1 є S
n ir a 4. De otra forma, ir a 1.
Etapa 4. Si f(xi + 1
)-f(xi) < 0, hacer Δ x
i + 1 = Δx
i, i = i+1 e ir
a 2. De otra forma, hacer xi+1 = x
i, i = i+1 e ir a 1.
Esto significa que cada vez que la búsqueda tiene éxito
se continua investigando en esa misma dirección. En caso de fa
llo se elige aleatoriamente una nueva dirección de búsqueda.
La figura 4.3.3.1/2 ilustra este método para la función
objetivo f(x) = (x1-2)4 + (x1-2x2)
2 y para el punto inicial
(0.0,2.0)
35
FIGURA 4.3.3.1/1
RASTREO ALEATORIO CON RETORNO
36
FIGURA 4.3.3.1/2
DESCENSO ALEATORIO
37
4.3.3.2 Método de Bremmerman
El método de Bremmerman consta de las siguientes etapas
(Ref. 4, Art. 2 y Ref. 5):
Etapa 0. Seleccionar xo є S n. Calcular f(x
o). Hacer i = 0.
Etapa 1. Elegir un vector aleatorio, pi, con una función de den
sidad de probabilidad normal.
Etapa 2. Calcular los cuatro valores xi+1 = xi + tpi y los cua
tro f(xi+1) para t = ±h, ±2h, donde h es un parámetro
escalar fijado.
Etapa 3. Ajustar los cuatro valores de f(xi+1) y el valor de
f(xi) mediante un polinomio de cuarto grado, P(t).
Etapa 4. Determinar el valor de t*i correspondiente al mínimo
de P(t), resolviendo la cúbica P'(t) = 0.
Etapa 5. Si f(xi + t*ipi) - f(xi) < 0, hacer x i + 1 = xi + t*ipi.
De otra forma, hacer xi+1 = xi.
Etapa 6. Si se satisface algún criterio de parada, parar. De
otra forma, hacer i = i+1 e ir a 1.
Este algoritmo es muy similar al método de Gaviano (ver
sección 4.3.4.5) pero tiene una eficiencia peor. Esto es debido
a que, en lugar de realizar una minimización global a lo largo
de una línea, sólo se pseudominimiza basándose en el cálculo del
mínimo de un polinomio de cuarto grado. Por esta razón la efi
ciencia del método depende mucho de la elección del parámetro h.
La figura 4.3.3.2/1 ilustra el método para la función ob-
jetivo f(x) = (x1-2)4 + (x1-2x2)
2 y para el punto inicial
(0.0,2.0)
38
FIGURA 4.3.3.2/1
MÉTODO DE BREMERMAN
39
4.3.3.3 Método Adaptativo de Matyas
El método de Matyas consta de las siguientes etapas (Ref.
7, Art. 9):
Etapa 0. Seleccionar xo є Sn y los escalares α
s, α
f, r
s , r
f,
cs, c
f. Calcular f(x
o). Hacer d
o= 0 , t
o= 1 , i = 0
y fmin = f(x
o).
Etapa 1. Elegir un vector aleatorio, ξi, mediante una distri
bución uniforme y generado con el algoritmo de Brown-
Muller.
Etapa 2. Calcular Δxi = d
i+t
iξ
i, x
i + 1 = x
i + Ax
i y f ( x
i + 1) .
Etapa 3. Si f(xi+1)-f
min < 0, ir a 4. De otra forma, ir a 5.
Etapa 4. Hacer fmin = f ( x
i + 1) . Calcular d
i + 1 = r
sdi + c
sΔx
i y
ti+1 = α
sti. Hacer i = i+1 e ir a 6.
Etapa 5. Hacer xi + 1
= xi. Calcular d
i + 1 = r
fd
i+c
fΔx
i y t
i + 1 =
αfti. Hacer i = i+1 e ir a 1.
Etapa 6. Si se satisface algún criterio de parada, parar. De
otra forma, ir a 1.
Cada Axi se determina a partir de un elemento aleatorio,
tiξ
i y de un sesgo, d
i. Los coeficientes r
s, r
f controlan la con
tribución del sesgo de la etapa anterior al sesgo de la presen
te. Se les llama coeficientes de rechazo. Los coeficientes cs
y Cf controlan la contribución de la etapa anterior al sesgo
de la presente etapa. Son denominados coeficientes de detección.
Los coeficientes αs y α
f incrementan y disminuyen respectivamen
te el tamaño de paso, t.
De acuerdo con Matyas, estos coeficientes deben cumplir
las siguientes desigualdades:
La figura 4.3.3.3/1 ilustra el método para la función ob-
jetivo f(x) = (x1-2)4 + (x1-2x2)
2 y para el punto inicial
(0.0,2.0).
40
41
FIGURA 4.3.3.3/1
MÉTODO ADAPTATIVO DE MATYAS
42
4.3.3.4 Método de Beltrami e Indusi
El método de Beltrami e Indusi es un método adaptativo
muy similar al método determinístico de Hookes y Jeeves con
etapas discretas y factor de aceleración α = 1 (Ref. 8 y Ref.
5).
El algoritmo es como sigue:
Etapa 0. Seleccionar x1 є S
n y un valor inicial para R. Hacer
y1 = x
1 e i = j = 1.
Etapa 1. Elegir un vector pj cuyo módulo es R y cuya dirección
se toma aleatoriamente con función de densidad uniforme.
Etapa 2. Si f(yj+pj) - f(yj) < 0, el intento ha tenido éxito. Hacer
yj+1 = yj + p j e ir a 3.
De otra forma, el intento ha sido un fracaso:
Si f(yj-pj) - f(yj) < 0, hacer yj+1 = yj-pj e ir a 3.
De otra forma, hacer yj+1 = yj e ir a 3.
Etapa 3. Si j < n, hacer j = j + 1 e i r a 1 .
De otra forma, ir a 4.
Etapa 4. Hacer xi+1 =yn+1 e y1 = 2xi+1 - xi.
Si i < 2, hacer i = i + 1 , j = 1 e ir a 1.
De otra forma: si f(x3) < f(x) < f(x2) 4.3.3.4/1
donde x = 2x2 - x1, se dice
del movimiento guiado 2x2 - x1 que ha
sido una "búsqueda con éxito". Si la
búsqueda no puede encontrar un punto x3
tal que se satisfaga la fórmula 4.3.3.4/1
entonces se vuelve a x2 y se hace desde
allí una búsqueda exploratoria con
43
R = RΔ, donde
4.3.3.4/2
En cualquier caso, se obtiene un
punto, x3 .
Etapa 5. Hacer y1 = 2x
3 -x
2 , i = j = 1 , e ir a 1.
Si se hacen cinco movimiento guiados sucesivos que sean
"búsqueda con éxito", entonces se aumenta el radio R.
Si el próximo movimiento guiado tiene éxito se retie
ne el radio incrementado y de otra forma el radio anti
guo es tomado de nuevo.
Cuando el radio R se hace menor que un valor predeter
minado suficientemente pequeño, se habrá conseguido la
convergencia del algoritmo.
Se hace notar que las etapas 2 y 3 son una búsqueda explo
ratoria y la etapa 4 una búsqueda guiada.
Este método exhibe una rápida convergencia hasta que se
llega a las cercanías de un mínimo. Entonces la convergencia
es lenta.
Entre las características más interesantes del método se
pueden citar las siguientes:
- El radio adaptativo de búsqueda, R.
- El coste de generación de un punto yj +pj no se pierde
en el caso de que éste sea desfavorable. Antes de recha
zarlo se investiga en el sentido contrario, yj-pj.
44
La figura 4.3.3.4/1 ilustra el método para la función
objetivo f(x) = (x1-2)4 + (x1-2x2)
2 y para el punto inicial
(0.0,2.0). •
FIGURA 4.3.3.4/1
MÉTODO DE BELTRAMI E INDUSI
45
46
4.3.4 Categoría 3 o métodos mixtos
Los métodos mixtos utilizan simultáneamente técnicas deter-
minísticas y probabilísticas o diferentes tipos de técnicas
probabilísticas.
Los métodos mixtos más significativos se han extraído
de la literatura especializada y se describen a continuación.
47
4.3.4.1 Método Multipartida
El método multipartida, que es una extensión natural
de la búsqueda aleatoria pura (ver 4.3.2.1), puede que sea el
método más utilizado para intentar encontrar el mínimo global
de una función objetivo cualquiera (Ref. 4, Art. 1).
El algoritmo consta de las siguientes etapas:
Etapa 0. Seleccionar aleatoriamente, de acuerdo con una distri
bución dada, un punto xo є S n.
Etapa 1. Utilizar un algoritmo de minimización local, con xo
como punto inicial, hasta que se cumpla un criterio
de parada predeterminado.
Etapa 2. Si puede considerarse que el punto encontrado es el
mínimo global, parar.
De otra forma, ir a 0.
Como puede verse, el usuario de este método utiliza su téc
nica de optimización favorita desde distintos puntos iniciales
xo. El conjunto de todos los puntos finales puede que incluya
el mínimo global, x*.
El método multipartida tiene la ventaja de que las carac
terísticas de la función objetivo que vayan siendo conocidas
al ir aplicando el método pueden utilizarse para guiar la elec
ción siguiente del punto inicial xo (en este caso se diría
que es un método adaptativo). Sin embargo, cuando se conocen
pocas características de la función objetivo el método nece
sita demasiadas evaluaciones de f(x).
48
4.3.4.2 Método de Hartman S2
Para evitar el alto número de evaluaciones de f(x) que
utiliza el método multipartida cuando se conocen pocas carac
terísticas de la función objetivo se han desarrollado diversos
métodos. Uno de ellos es el método de Hartman S2, que consta
de las etapas siguientes (Ref. 4, Art. 1):
Etapa 0. Hacer V+ =
Etapa 1. Seleccionar aleatoriamente, de acuerdo con una distri
bución dada, un punto xo є Sn.
Etapa 2. Si f(xo) > V
+, ir a 1.
De otra forma, ir a 3.
Etapa 3. Realizar una minimización local desde xo hasta Mi (pun
to para el que se cumple un criterio de parada prede
terminado). Hacer V+ = f(M i).
Etapa 4. Ir a 1.
Con este método sólo se efectúa una búsqueda local adicio
nal si el nuevo punto inicial es mejor que el mínimo global ac
tual.
Normalmente este procedimiento acelera la obtención del mí
nimo global. Sin embargo, en algunos casos se rechazan puntos
que conducirían a él. Esta situación especial se ilustra en la
figura 4.3.4.2/1, donde será rechazado el punto A.
49
FIGURA 4.3.4.2/1
MÉTODO DE HARTMAN S2. SITUACIÓN ESPECIAL
50
4.3.4.3 Método de las Constelaciones de Törn
Para evitar el alto coste del método multipartida, se ha
introducido en la minimización global el concepto de "constela
ción". La idea básica de este concepto es que los puntos con
valores más bajos de la función objetivo estarán agrupados en
las cercanías de los mínimos locales, por lo que una búsqueda
posterior desde esos puntos conduciría al mismo mínimo local.
De esta forma, se podría obtener un ahorro de tiempo considera
ble si la búsqueda se continuara desde un número de puntos re-
ducido.
Törn ha efectuado varias implementaciones de su método,
el cual está descrito en la Ref. 4, Art. 4, analizado en la
Ref. 4, Art. 5 y resumido en la Ref. 5.
El método de Törn consta de las siguientes etapas:
Etapa 1. Tomar una muestra aleatoria de puntos, mediante una
distribución uniforme, sobre el espacio de interés, Sn.
Etapa 2. Con la ayuda de una subrutina de minimización local,
llevar cada punto hacia un mínimo local.
Etapa 3. Utilizar un método conocido en el reconocimiento de
patrones como "agrupamiento" para agrupar los puntos
en constelaciones definidas como conjuntos de puntos
cuya distancia entre sí es menor que la distancia me
dia desde otros.
Etapa 4. Descartar una fracción de puntos determinada en cada
grupo (por ejemplo, retener uno de cada dos o tres
puntos).
Etapa 5. Ir a 2 hasta que se satisfaga un criterio de parada
predeterminado.
Este método ha demostrado ser un método fiable para obte
ner el mínimo global.
Las figuras 4.3.4.3/1, 2, 3 y 4 ilustran las distintas
etapas del método para una función objetivo arbitraria.
51
52
FIGURA 4.3.4.3/1
MÉTODO DE LAS CONSTELACIONES DE TÖRN. ETAPA 1
53
FIGURA 4.3.4.3/2
MÉTODO DE LAS CONSTELACIONES DE TÖRN. ETAPA 2
54
FIGURA 4.3.4.3/3
MÉTODO DE LAS CONSTELACIONES DE TÖRN. ETAPA 3
x1
x2
4
2
3
1
FIGURA 4.3.4.3/4
MÉTODO DE LAS CONSTELACIONES DE TÖRN. ETAPA 4
55
56
4.3.4.4 Método Estocástico-Determinístico de Fagiuoli
Todos los métodos de la Categoría 1, que han sido descri
tos anteriormente, utilizan un conjunto de puntos distribuidos
aleatoriamente en el espacio Sn. Sin embargo, Fagiuoli y otros
(Ref. 4, Art. 8) definen una técnica de cobertura espacial don
de el espacio a investigar se divide en celdas. A continuación
se seleccionan de forma aleatoria una celda y un punto dentro
de ella. Y, por último, desde ese punto, se emplea un método
de minimización determinístico local.
El algoritmo consta de las etapas siguientes:
Etapa 0. Dividir el espacio Sn en N celdas, Cj, j = 1(1)N.
Tomar un valor V+ suficientemente grande.
Etapa 1. Elegir una celda, Ck, de acuerdo con una distribución
de probabilidad dada.
Etapa 2. Dentro de la celda, elegir un punto, xk, de acuerdo
con una distribución de probabilidad uniforme.
Etapa 3. Calcular f(xk). Si f(xk)-V+ > 0, ir a 1.
Si f(xk)-V+ 0, emplear el algoritmo determinístico
de minimización local dentro de la celda. Sea Mk el
resultado del proceso de minimización. Hacer V+ =
f(Mk).
Etapa 4. Ir a 1 hasta que se satisfaga un criterio de parada
predeterminado.
57
4.3.4.5 Método de Gaviano
El método propuesto por Gaviano consta de las etapas si
guientes (Ref. 3, Art. 8):
Etapa 0. Seleccionar xo є S n. Hacer i = 0.
Etapa 1. Elegir un vector, pi cuyo módulo sea la unidad y cuya
dirección se tome aleatoriamente con función de densi
dad uniforme.
Etapa 2. Calcular el escalar λi tal que
f(xi+λ
ip
i) = min{f(x
i+λp
i)/λ 0}
Etapa 3. Calcular xi+1 = x + λ
ipi. Hacer i = i+1 e ir a 1.
Según esto, se realiza una minimización global según direc
ciones elegidas arbitrariamente. Gaviano ha demostrado que el
algoritmo converge hacia el mínimo global.
La figura 4.3.4.5/1 ilustra el método para la función obje-
tivo f(x) = (x1-2)4 + (x1-2x2)
2 y para el punto inicial (0.0,2.0).
58
FIGURA 4.3.4.5/1
MÉTODO DE GAVIANO
59
5. LOS ALGORITMOS GENÉTICOS
5.1 INTRODUCCIÓN
De acuerdo con la Teoría de la Evolución o Evolucionismo
(ver Apéndice I), todos los seres vivos son el resultado de
un proceso muy largo de desarrollo durante el cual han evoluio-
nado, han mejorado o, lo que es lo mismo, han luchado contra
el incremento de entropía de su entorno.
La observación de la Naturaleza muestra que las estructu
ras, procesos y sistemas biológicos están muy bien adaptados
para realizar sus funciones. Incluso ha sido posible demostrar
la optimización total de ciertos subsistemas biológicos median
te la utilización de métodos matemáticos. Algunos ejemplos tí
picos de tales soluciones óptimas son:
a) La reducción del diámetro de las arterias en sus rami
ficaciones.
b) La relación volumétrica de partículas sólidas en la
sangre (valor hemocrítico).
c) La posición de los puntos límites de un sistema circu
latorio plano.
Para un caso general, no puede demostrarse esta optimiza
ción total. Sin embargo, sí parece claro, a la luz del presente
conocimiento biológico, que los seres vivos están, al menos par
cialmente, optimizados. Esto es el motivo por el que la evolu
ción biológica representa una estrategia pseudoóptima para la
adaptación de los seres vivos a su entorno.
60
Según esto, la imitación de las estrategias utilizadas por
los organismos para resolver sus problemas de supervivencia y
evolución podría conducir a una resolución muy eficiente de los
problemas técnicos de optimización.
La pregunta que surge ahora es la siguiente: ¿Cómo imitar
las estrategias de los seres vivos, si éstas no se conocen com
pletamente? La respuesta es obvia: sólo se imitarán aquellos
aspectos del Evolucionismo más importantes y perfectamente co
nocidos, dejando de lado las cuestiones secundarias.
La definición de Algoritmos Genéticos que se propone en
esta Tesis es la siguiente: Los Algoritmos Genéticos son méto
dos probabillsticos adaptativos basados en la imitación de las
estrategias utilizadas en la evolución natural de los seres
Son métodos probabilísticos, pues hacen uso de números
aleatorios y de probabilidades y son adaptativos pues utilizan
la información recogida en etapas anteriores para guiar la bús
queda presente.
Algunos Algoritmos Genéticos son métodos de rastreo alea
torio (Categoría 2) y otros métodos mixtos (Categoría 3). Asimis
mo, puede haber métodos locales y métodos globales.
El presente capítulo se divide en cinco apartados.
El apartado 5.2 presenta el modelo muy simplificado de la
Evolución que se estudiará en esta Tesis.
El apartado 5.3 establece la formulación matemática de los
algoritmos (μ,λ) y (μ+λ) , basada en el modelo de Evolución es
tudiado en el apartado anterior.
El apartado 5.4 particulariza los resultados del apartado
anterior para el caso μ = 1. Son de una importancia extraordina-
vivos.
ria los subapartados 5.4.5, en el que se propone un método para
calcular el tamaño de paso óptimo de estos algoritmos y además
para controlarlo, y el 5.4.6, en el que se recogen las conclu
siones obtenidas.
Por último, el apartado 5.5 investiga las posibles mejoras
de los algoritmos genéticos en estudio.
61
5.2 EL MODELO SIMPLIFICADO DE LA EVOLUCIÓN
La base fundamental del Evolucionismo de Darwin está cons
tituida por los dos principios siguientes (ver Apéndice I):
- Mutación
- Selección
Un modelo altamente simplificado de la Evolución, que in
cluye estos dos principios, puede desarrollarse como sigue (Ref.
6):
0. INICIALIZACIÓN: Se considera una población formada por μ in-
DEL PROCESO dividuos denominados padres. Estos μ individuos
constituyen una generación de padres. Cada
individuo se caracteriza por su genotipo.
1. MUTACIÓN: A partir de los μ padres se obtiene una generación
de λ nuevos individuos, llamados hijos, donde
. Los cambios en los genes (mutaciones) son
pequeños, estocásticos e independientes entre sí.
Por tanto, el genotipo de cada descendiente dife
rirá muy ligeramente del de su progenitor.
2. SELECCIÓN: Los μ + λ individuos de los que ahora se dispone
(padres e hijos) tienen distinta vitalidad por te
ner distintos genotipos. Sólo sobrevivirán y evolu
cionarán los μ mejores individuos y ellos consti
tuirán la siguiente generación de padres, con lo
que el proceso se repite.
62
63
Para seleccionar esos μ mejores individuos se pueden
utilizar dos estrategias:
a) Estrategia (μ,λ): Los μ padres serán los mejores
individuos entre los λ (hijos) posibles. Según
esta estrategia los padres, tras procrear, mueren.
b) Estrategia (μ+λ): Los μ padres serán los mejores
individuos entre los μ+λ (padres e hijos) posibles.
Según esta estrategia, los padres pueden vivir y ge-
nerar descendientes indefinidamente.
Este modelo asume lo siguiente:
a) El número total de individuos en la población permanece
constante.
b) Sólo hay mutaciones puntuales de genes.
c) El entorno, y por lo tanto el criterio de vitalidad, se
mantiene constante.
Para aplicar a la resolución de los problemas matemáticos
de optimización el modelo simplificado de la Evolución, esboza
do anteriormente, se establecen las siguientes analogías:
- Cromosoma: Equivalente a vector de n componentes en el
espacio (espacio de variables), x.
- Individuo: Equivalente a punto en el espacio de variables,
x.
- Población: Equivalente a conjunto de puntos en el espa
cio de variables.
64
- Generación de hijos: Equivalente a conjunto de λ puntos
en el espacio de variables, Hg.
- Generación de padres: Equivalente a conjunto de μ puntos
en el espacio de variables, Gg.
- Vitalidad de un individuo; Equivalente a valor de la fun
ción objetivo en un punto, -f(x).
Obsérvese que según este modelo, los conceptos de cromoso
ma e individuo son idénticos, cosa que en la realidad, obvia
mente, no ocurre.
65
5.3 LOS ALGORITMOS (μ,λ) Y (μ+λ)
5.3.1 Generalidades
En este apartado se considera el caso más general posible,
en el cual μ y λ pueden ser cualesquiera, con una única restric
ción: cada padre genera λ/μ hijos, y por ello λ ha de ser múlti
plo de μ.
El subapartado 5.3.2 presenta los algoritmos (μ,λ) y (μ+λ)
los cuales han sido obtenidos traduciendo al lenguaje matemáti
co el modelo simplificado de la Evolución del apartado 5.2.
En el subapartado 5.3.3 se hacen una serie de consideracio
nes respecto al valor esperado del tamaño de paso.
Por último, el subapartado 5.3.4 recoge las funciones obje
tivo a las que serán aplicados los algoritmos descritos, ya que
no es posible realizar un análisis general válido para una fun
ción objetivo arbitraria.
66
5.3.2 Desarrollo de los algoritmos (μ,λ) y (μ+λ)
- El algoritmo (μ,λ) es el resultado obtenido al traducir
al lenguaje matemático la estrategia (μ,λ) del modelo simplifi
cado de la Evolución. Consta de las etapas siguientes:
Etapa 0. Seleccionar, mediante un criterio adecuado, una serie
de puntos iniciales, xok , k = 1(1)μ (Población de μ pa
dres de la 0-ésima generación).
Hacer g = 0 (contador de generaciones).
Etapa 1. Calcular ygl = x g k + z g l, l = 1(1)λ (Población de λ hijos
de la g-ésima generación), donde
Etapa 2. Clasificar los ygl , l=1(1)λ de tal forma que f(y g l 1)
f ( y9 l 2
) , para l1 = 1(1)μ y l
2 = μ + 1(1)λ.
Hacer xg+1,k
= yg l 1
, k = l1 = 1(1)μ.
Hacer g = g+1 e ir a 1, hasta que se satisfaga un cri
terio de parada predeterminado.
- El algoritmo (μ+λ) es el resultado obtenido al traducir
al lenguaje matemático la estrategia (μ+λ) del modelo simplifi
cado de la Evolución. Consta de las etapas siguientes:
Etapa 0. Seleccionar, mediante un criterio adecuado, una serie
de puntos iniciales, xok , k = 1(1)μ (Población de μ padres de la 0-ésima generación).
67
Hacer g = 0 (contador de generaciones)
Etapa 1. Calcular ygl = x
g k + z
g l, l = 1(1)λ (Población de λ
hijos de la g-ésima generación), donde
Hacer xg,μ+l
= yg l, l = 1(1)λ.
Etapa 2. Clasificar los xgl , l = 1(1) μ+λ de tal forma que
f(xg l 1
) f ( xg l 2
) , para l1 = 1(1)μ y l
2 - μ + 1(1) μ+λ .
Hacer xg + 1 , k
= xg l 1
, k = l1 = 1(1)μ.
Hacer g = g + 1 e ir a 1, hasta que se satisfaga un crite-
rio de parada predeterminado.
Es necesario realizar una aclaración. El vector aleatorio
zgl representa la mutación en el l-ésimo hijo de la g-ésima ge
neración. De acuerdo con el presente conocimiento biológico,
las mutaciones se consideran como sucesos estocásticos produci
dos por multitud de causas. Entonces, de acuerdo con el teorema
central del limite, debe admitirse que el vector aleatorio está
distribuido normalmente. Además, la analogía establecida con la
evolución natural indica que:
La figura 5.3.2/1 ilustra una iteración del algoritmo (2,4)
para la función objetivo f(x) = (x1-2)4 + (x1-2x2)
2.
68
FIGURA 5.3.2/1
ALGORITMO (2,4)
5.3.3 El valor esperado del tamaño de paso
El tamaño de paso desde el punto xgk hasta el punto ygl
viene dado por la longitud, s, del vector zgl. Esta longitud no
puede ser predicha antes de realizar la prueba.
Por ello, debe utilizarse el concepto de valor esperado
del tamaño de paso, definido como E{s}, en lugar del concepto
de tamaño de paso empleado en los métodos determinísticos.
Se demostrará a continuación que este valor esperado es
directamente proporcional a la desviación típica del vector
aleatorio z. Esta es la razón por la que en la literatura espe
cializada sobre métodos probabilísticos se denominan tamaños
de paso a las desviaciones típicas.
La función de densidad gaussiana de un vector aleatorio,
z, de n componentes, viene dada por
5.3.3/1
donde
5.3.3/2
5.3.3/3
En el caso estudiado se ha supuesto que:
5.3.3/4
5.3.3/5
69
70
Según esto, la ecuación 5.3.3/1 se reduce a
5.3.3/6
Para el caso particular muy comúnmente estudiado de σi = σ,
i = 1(1)n, la ecuación 5.3.3/6 tiene la forma:
5.3.3/7
Notar que el cuadrado de la longitud, s, del vector aleato
rio z es la suma de los cuadrados de n variables normalmente dis
tribuidas, con desviaciones típicas σ. Por ello,
5.3.3/8
donde es la distribución de Pearson. Dos de sus propiedades
son:
5.3.3/9
5.3.3/10
Cuando el número de variables n es grande, la distribución
de Pearson tiende a la distribución normal. En este caso, se
obtienen las expresiones siguientes:
5.3.3/11
71
5.3.3/12
La ecuación 5.3.3/11 muestra que para una dimensión del
espacio de variables dada, el valor esperado del tamaño de paso
es proporcional a la desviación típica.
72
5.3.4 Los modelos de función objetivo utilizados
El análisis teórico de las estrategias (μ,λ) y (μ+λ) no ha
podido ser realizado, hasta el momento, para funciones objetivo
cualesquiera (Ref. 6 y Ref. 9).
Por ello, es preciso simplificar el problema general y estu
diar las propiedades teóricas que resultan para funciones obje
tivo simples. Se analizarán dos funciones objetivo: el modelo
de corredor y el modelo esférico.
El modelo de corredor representa una variación de f(x) a
lo largo de una dirección. Mediante un cambio de variables, es
ta dirección puede hacerse coincidir siempre con el eje x1.
La función se define como sigue:
5.3.4/1
donde f(x1) es una función monótona decreciente.
La figura 5.3.4/1 muestra un modelo de corredor en un espa
cio bidimensional.
El modelo esférico representa una reducción monótona radial
hacia el mínimo de la función objetivo. Esta función se define
como sigue:
5.3.4/2
La figura 5.3.4/2 muestra un modelo esférico en un espacio
bidimensional.
73
El interés fundamental de estos dos modelos, aparte de su
sencillez, es que mientras el modelo esférico puede considerar
se como una buena aproximación de cualquier función objetivo en
las cercanías de un mínimo, el modelo de corredor representa
adecuadamente el comportamiento de la función suficientemente
lejos del mínimo.
FIGURA 5.3.4/1
MODELO DE CORREDOR
74
f(x)=f(x1)=cte Hacia el mínimo
FIGURA 5.3.4/2
MODELO ESFÉRICO
75
76
5.4 LOS ALGORITMOS (1,λ) Y (1+λ)
5.4.1 Generalidades
Como casos particulares de los algoritmos (y,λ) y (y+λ),
se estudian en este apartado los algoritmos (1,λ) y (1+λ) ob
tenidos a partir de los anteriores haciendo y = 1.
La razón para estudiar estos casos particulares es doble.
Por una parte, constituyen un primer paso necesario para poste
riores generalizaciones. Y, por otra parte, como se demostrará,
su sencillez les confiere una extraordinaria potencia.
En el subapartado 5.4.2 se definen las características
teóricas que serán analizadas cuando estos algoritmos son aplica
dos al modelo de corredor y al modelo esférico.
El subapartado 5.4.3 presenta la probabilidad de éxito y
la velocidad de convergencia obtenidas para el algoritmo (1+1).
El subapartado 5.4.4 analiza, análogamente, estas caracte
rísticas para los algoritmos (1,λ) y (1+λ).
En el subapartado 5.4.5 se calculan los tamaños de paso
óptimos y se propone un método para controlar el tamaño de
paso basado en la probabilidad de éxito cuando este tamaño de
paso es óptimo.
Por último, el subapartado 5.4.6 presenta las conclusiones
obtenidas en este estudio.
5.4.2 Características teóricas estudiadas
Se aplicarán los algoritmos (1,λ) y (1+λ) a dos funciones
objetivo que sigan el modelo de corredor y el modelo esférico
y se estudiarán tres características teóricas:
- La probabilidad de éxito, Pλ
- La velocidad de convergencia, Φ
- La relación Φ/λ
La probabilidad de éxito, Pλ, se define como la probabili
dad de que alguno de los λ hijos sea mejor (tenga un valor de
la función objetivo mejor) que el padre. Obsérvese que la pro
babilidad de éxito de la estrategia (1,λ) coincide con la de la
estrategia (1+λ).
La velocidad de convergencia,Φ, se define como el valor
esperado de la reducción de la distancia, en cada iteración,
entre el óptimo y el padre de la generación. Si se denota median
te x* el óptimo y mediante xg1 el padre de la generación g, la
distancia entre x* y xg1 viene dada por:
5.4.2/1
y, por tanto, la velocidad de convergencia es:
5.4.2/2
Por último, el estudio de la relación Φ/λ tiene un gran in
terés por lo siguiente. Se consideran los padres de las generacio-
77
78
nes, g y g+1, situados a distancias del óptimo dg y dg+1 (ver
figura 5.4.2/1). El tiempo empleado en calcular la generación
de hijos Hg es proporcional al número de éstos. Es decir:
t = k λ 5.4.2/3
El número de generaciones necesarias para llegar al óptimo
será:
5.4.2/4
y el tiempo total empleado en llegar al óptimo
5.4.2/5
Por tanto, la relación Φ/λ es inversamente proporcional
al tiempo total necesario para alcanzar el óptimo. El mejor de
todos los algoritmos posibles será aquel para el que Φ/λ sea
máximo.
79
FIGURA 5.4.2/1
VELOCIDAD DE CONVERGENCIA, Φ
Generación de hijos, Hg
5.4.3 Probabilidad de éxito y velocidad de convergencia para
el algoritmo (1+1)
En este subapartado se recogen, sin demostración, los re
sultados obtenidos por Rechenberg (Ref. 9) con el algoritmo
(1+1) para el modelo de corredor y el modelo esférico. Para
ambos modelos se calcularon la probabilidad de éxito y la velo
cidad de convergencia.
80
5.4.3.1 Modelo de corredor
a) Probabilidad de éxito
La probabilidad de éxito es independiente de la coordenada
x1 del punto considerado, pero es dependiente del resto de las
coordenadas. Su valor es:
5.4.3.1/1
donde
Φ función integral de error de Gauss:
5.4.3.1/2
b semianchura del corredor
σ desviación típica del vector aleatorio z, normalmente
distribuido, igual para todas las coordenadas (σi = σ,
i = 1(1)n).
A pesar de que la expresión 5.4.3.1/1 proporciona el valor
de la verdadera probabilidad de éxito, Rechenberg utiliza en
vez de ésta su valor medio en la sección x1. Es decir, se supone
que el padre de la generación está situado a cierta distancia
del óptimo, sin importar su localización exacta en la sección
correspondiente. La expresión que se obtiene es:
81
82
5.4.3.1/3
Si además se cumple σ/b << 1, la anterior expresión conduce
a:
5.4.3.1/4
b) Velocidad de convergencia
Para la velocidad de convergencia se obtiene:
5.4.3.1/5
donde Φ ya ha sido definida mediante la expresión 5.4.3.1/2.
Haciendo las mismas consideraciones que en el caso de la
probabilidad de éxito, la velocidad de convergencia media en
la sección x1 es:
5.4.3.1/6
En el caso particular de σ/b << 1, resulta
5.4.3.1/7
5.4.3.2 Modelo esférico
a) Probabilidad de éxito
La probabilidad de éxito, debido a la simetría de la fun-
ción objetivo, sólo depende de la distancia desde el padre hasta
el mínimo.
La fórmula general que permite obtener esta probabilidad
de éxito es:
5.4.3.2/1
donde
Ip(z) solución de la ecuación de Bessel modificada
5.4.3.2/2
Γ función Gamma
ro distancia desde el padre hasta el mínimo
σ desviación típica del vector aleatorio z, normalmente
distribuido, igual para todas las coordenadas (σi = σ,
i = 1(1)n)
a = ro
2/ σ
2 5.4.3.2/3
ν = n/2 5.4.3.2/4
La fórmula general, 5.4.3.2/1 puede simplificarse si se
consideran las relaciones adicionales n >> 1 y nσ2/r
o
2 << 1. Con
éstas se obtendría:
83
84
5.4.3.2/5
donde Φ viene dada por la expresión 5.4.3.1/2.
b) Velocidad de convergencia
Para la velocidad de convergencia se obtiene la expresión
general siguiente:
5.4.3.2/6
donde I, a, ν vienen dadas por las expresiones 5.4.3.2/2, 3 y 4
respectivamente.
En el caso particular en que n >> 1 y nσ2/r
o
2 << 1, resulta:
5.4.3.2/7
donde Φ ha sido definida mediante la expresión 5.4.3.1/2.
85
5.4.4 Probabilidad de éxito y velocidad de convergencia para
los algoritmos (1,λ) y (1+λ)
En este subapartado se estudian, para el modelo de corredor
y el modelo esférico, la probabilidad de éxito y la velocidad de
convergencia obtenidas mediante la aplicación de los algoritmos
(1,λ) y (1+λ).
Como ya se ha señalado, la probabilidad de éxito es la
misma para los algoritmos (1,λ) y (1+λ). Sin embargo, la velo
cidad de convergencia responderá a distintas expresiones para
los dos algoritmos estudiados.
86
5.4.4.1 Modelo de corredor
a) Probabilidad de éxito
La probabilidad de éxito para los algoritmos (1,λ) y (1+λ)
se obtiene fácilmente a partir de la expresión análoga para el
algoritmo (1+1), mediante la fórmula:
5.4.4.1/1
donde P1 es la probabilidad de éxito para el algoritmo (1+1).
Si se quiere obtener una fórmula general que proporcione
la probabilidad de éxito, P1 vendrá dada por la expresión
5.4.3.1/3, mientras que si se considera suficiente la aproximación
obtenida con σ/b << 1, P1 deberá sustituirse por la expresión
5.4.3.1/4.
La figura 5.4.4.1/1 representa la probabilidad de éxito en
función de la desviación típica adimensionalizada,
, 5.4.4.1/2
para distintos valores de λ. La curva de trazo continuo correspon
de a los resultados teóricos obtenidos a partir de la expresión
5.4.4.1/1, con n = 10, b = 5. Para estos mismos datos se ha reali
zado una simulación con los programas de que se dispone, repre
sentándose los resultados obtenidos mediante puntos.
Obsérvese que la variación de la probabilidad de éxito con
la desviación típica viene dada por:
87
5.4.4.1/3
Según esto, los signos de dPλ/dσ y dP
1/dσ son los mismos.
Como dP1/dσ siempre es negativo, se deduce que
5.4.4.1/4
b) Velocidad de convergencia
De acuerdo con la Ref. 6, la velocidad de convergencia
para el algoritmo (1,λ) viene dada por la expresión
5.4.4.1/5
donde:
5.4.4.1/6
5.4.4.1/7
5.4.4.1/8
5.4.4.1/9
La ecuación 5.4.4.1/5 no puede resolverse explícitamente
de forma que proporcione Φ* = f(σ*) para distintos λ. La figura
5.4.4.1/2 muestra los resultados teóricos obtenidos mediante
iteración para el algoritmo (1,λ) así como los resultados de las
88
simulaciones realizadas.
No se dispone de resultados teóricos para el algoritmo
(1+λ). Solamente se han efectuado simulaciones que se recogen
en la misma figura 5.4.4.1/2.
Por último, la figura 5.4.4.1/3 proporciona la velocidad
de convergencia adimensionalizada máxima, Φ*max , en función del
número de hijos, λ, para el algoritmo (1,λ).
89
90
Φ*
FIGURA 5.4.4.1/2
VELOCIDAD DE CONVERGENCIA ADIMENSIONALIZADA PARA EL MODELO DE CO
RREDOR.
FIGURA 5.4.4.1/3
VELOCIDAD DE CONVERGENCIA ADIMENSIONALIZADA MÁXIMA PARA EL MODELO
DE CORREDOR Y PARA EL ALGORITMO (1,λ).
91
(1+1) - Teoría
Φ*max(σ*opt)
92
5.4.4.2 Modelo esférico
a) Probabilidad de éxito
El desarrollo que se hace aquí es idéntico al realizado
en el párrafo 5.4.4.1.
La probabilidad de éxito para los algoritmos (1,λ) y (1+λ)
se obtiene mediante la fórmula:
5.4.4.2/1
donde P1 es la probabilidad de éxito para el algoritmo (1+1),
que viene dada por la expresión 5.4.3.2/1 en el caso general y
por la expresión 5.4.3.2/5 en el caso particular de n >> 1 y.
nσ2/r
o
2 << 1.
La figura 5.4.4.2/1 representa la probabilidad de éxito en
función de la desviación típica adimensionalizada,
5.4.4.2/2
para distintos valores de λ y para n = 10 y ro = 5. Los resulta
dos obtenidos son unos teóricos y otros simulados.
Al igual que en el modelo de corredor, se hace notar que
el signo de dPλ/dσ es siempre negativo.
b) Velocidad de convergencia
De acuerdo con la Ref. 6, la velocidad de convergencia para
el algoritmo (1,λ) viene dada por la expresión
5.4.4.2/3
donde:
5.4.4.2/4
5.4.4.2/5
5.4.4.2/6
La figura 5.4.4.2/2 muestra los resultados teóricos y simu
lados obtenidos para el algoritmo (1,λ) y los resultados simula
dos para el algoritmo (1+λ).
La figura 5.4.4.2/3 proporciona la velocidad de convergen
cia adimensionalizada máxima, Φ*max en función del número de hijos,
λ, para el algoritmo (1,λ).
93
94
95
FIGURA 5.4.4.2/2
VELOCIDAD DE CONVERGENCIA ADIMENSIONALIZADA PARA EL MODELO ESFÉRICO
96
FIGURA 5.4.4.2/3
VELOCIDAD DE CONVERGENCIA ADIMENSIONALIZADA MÁXIMA PARA EL MODELO
ESFÉRICO Y PARA EL ALGORITMO (1,λ).
97
5.4.5 Tamaño de paso óptimo y control de tamaño de paso
El tamaño de paso óptimo será aquel tamaño de paso para el
que la velocidad de convergencia sea máxima. Obsérvese que el
concepto de tamaño de paso es equivalente al de desviación típi
ca (ver 5.3.3).
Si las desviaciones típicas son muy pequeñas, la probabi
lidad de éxito será muy grande, pero cada hijo que tenga éxito
avanzará poco hacia el mínimo. Sin embargo, para desviaciones
típicas grandes la probabilidad de éxito empeorará y el avance
de los hijos hacia el mínimo mejorará. Esta es la razón por la
que existirá una desviación típica óptima ni muy grande ni muy
pequeña.
Cualquier algoritmo (1,λ) ó (1+λ) que se desarrolle debe
rá contar con un método que controle el tamaño de paso y lo
ajuste siempre a su valor óptimo.
A continuación, en el párrafo 5.4.5.1, se estudia el tama
ño de paso óptimo y la forma de controlarlo para el algoritmo
(1+1). Y después, en el párrafo 5.4.5.2 se generalizan estos
resultados para los algoritmos (1,λ) y (1+λ).
98
5.4.5.1 Tamaño de paso óptimo y control del tamaño de paso para
el algoritmo (1+1)
Según la Ref. 9, para obtener el tamaño de paso óptimo es
necesario derivar con respecto a σ las expresiones 5.4.3.1/7 y
5.4.3.2/7 que proporcionan la velocidad de convergencia, Φ, pa
ra los modelos de corredor y esférico, respectivamente. Es decir:
5.4.5.1/1
a) Modelo de corredor
Derivando la expresión 5.4.3.1/7 se obtiene:
5.4.5.1/2
5.4.5.1/3
Estas dos fórmulas son difícilmente aplicables en la prác
tica, pues contienen la semianchura de corredor, b. Sin embargo,
puede sustituirse el valor de σopt en la expresión 5.4.3.1/4 y
así se obtiene la probabilidad de éxito para velocidad de conver
gencia máxima. Esto es:
5.4.5.1/4
Si n >> 1:
(n >> 1 , σ/b << 1) 5.4.5.1/5
99
b) Modelo esférico
Derivando la expresión 5.4.3.2/7 se obtiene:
5.4.5.1/6
5.4.5.1/7
Al igual que las fórmulas deducidas para el modelo de co
rredor, estas expresiones tienen difícil aplicación práctica, pues
la distancia desde el padre hasta el mínimo está contenida en
ellas. Sustituyendo el valor de σopt en la expresión 5.4.3.2/5
se obtiene:
P1opt = 0.270 (n>>1, nσ2/r
o
2<<1) 5.4.5.1/8
Por tanto, los resultados obtenidos han sido:
a) Modelo de corredor: P1opt
= 0.184
b) Modelo esférico: P1opt = 0.270
Es decir, la regla práctica para adaptar el tamaño de paso
a su valor óptimo puede ser la siguiente:
Se sabe que si se selecciona σopt, se obtendrá 1 éxito de
cada 5.4 intentos cuando la función objetivo estudiada se apro
xime al modelo de corredor y 1 éxito de cada 3.7 intentos cuando
la función objetivo se ajuste al modelo esférico.
Por ello, para cualquier función objetivo puede tomarse
100
1/5 como la frecuencia relativa de éxito óptima, Fropt. Si du
rante la optimización Fr < 0.20, entonces σ debe ser reducida
y si Fr > 0.20, σ debe ser incrementada (recuérdese que dP1/dσ
<0).
101
5.4.5.2 Tamaño de paso óptimo y control del tamaño de paso para
los algoritmos (1,λ) y (1+λ)
Se determinan en este párrafo los valores de Φ*max, Φ*max/λ ,
σ*opt y P
λopt en función de λ para los modelos de corredor y es
férico y para los algoritmos (1,λ) y (1+λ).
a) Algoritmo (1,λ)
Se opera de la forma siguiente:
1) Fijar λ.
2) Con λ, obtener Φ*max mediante las figuras 5.4.4.1/3 y
5.4.4.2/3 para los modelos de corredor y esférico res
pectivamente.
3) Con λ y Φ*max obtener (Φ*max/λ).
4) Con λ y Φ*max obtener σ*opt mediante las figuras 5.4.4.1/2
y 5.4.4.2/2 para los modelos de corredor y esférico res
pectivamente.
5) Con λ, σ*opt y n, obtener P
1opt mediante la expresión
5.4.3.1/4 y Pλopt
mediante la expresión 5.4.4.1/1, para
el modelo de corredor.
Con λ y σ*opt obtener P
1opt mediante la expresión
5.4.3.2/5 y Pλopt
mediante la expresión 5.4.4.2/1 para el
modelo esférico.
Los resultados obtenidos mediante el proceso descrito ante-
riomente se han recogido en la tabla 5.4.5.2/1 y en las figuras
5.4.5.2/1 y 2.
102
b) Algoritmo (1+λ)
Se opera de la forma siguiente:
1) Fijar λ.
2) Con λ, obtener Φ*max y σ*
opt mediante los resultados de
simulación de las figuras 5.4.4.1/2 y 5.4.4.2/2 para los
modelos de corredor y esférico respecticamente.
3) Con λ y Φ*max obtener (Φ*
max/λ).
4) Con λ, σ*opt y n, obtener P
1opt mediante la expresión
5.4.3.1/4 y Pλopt
mediante la expresión 5.4.4.1/1, para
el modelo de corredor.
Con λ y σ*opt, obtener P
1opt mediante la expresión
5.4.3.2/5 y Pλopt
mediante la expresión 5.4.4.2/1 para
el modelo esférico.
Los resultados obtenidos se han recogido en la tabla
5.4.5.2/2 y en las figuras 5.4.5.2/1 y 2.
Para controlar el tamaño de paso en los algoritmos (1,λ) y
(1+λ) y adaptarlo a su valor óptimo, se utiliza el mismo método
ya descrito para el algoritmo (1+1). La tabla 5.4.5.2/3 muestra
las frecuencias relativas de éxito óptimas, Fropt, las cuales
han sido obtenidas a partir de las probabilidades de éxito ópti
mas para el modelo de corredor y el modelo esférico.
La forma de controlar el tamaño de paso es la siguiente:
si durante el proceso de optimización de cualquier función obje
tivo, Fr < Fropt, entonces σ debe ser reducida, y si Fr > Fropt
σ debe ser incrementada.
103
TABLA 5.4.5.2/1
ALGORITMO (1,λ). RESULTADOS OBTENIDOS
λ
1
2
3
4
5
6
7
8
9
10
0
0.31
0.62
0.92
1.20
1.44
1.66
1.88
2.10
2.32
Modelo de Corredor
0
0.16
0.21
0.23
0.24
0.24
0.24
0.24
0.23
0.23
0
1.44
1.77
2.07
2.28
2.49
2.66
2.82
2.99
3.15
0.50
0.49
0.57
0.63
0.68
0.71
0.74
0.76
0.77
0.78
n=10
0.50
0.50
0.59
0.65
0.70
0.73
0.76
0.78
0.79
0.80
Modelo Esférico
0
0.17
0.35
0.52
0.65
0.76
0.87
0.96
1.05
1 .13
0
0.09
0.12
0.13
0.13
0.13
0.12
0.12
0.12
0.11
0
0.49
0.73
0.91
1.02
1.10
1.18
1.24
1.31
1.37
0.50
0.65
0.73
0.79
0.84
0.87
0.90
0.92
0.93
0.94
104
TABLA 5.4.5.2/2
ALGORITMO (1+λ). RESULTADOS OBTENIDOS
λ
1
2
3
4
5
6
7
8
9
10
0.37
0.69
0.99
1.27
1.52
1.76
1.98
2.18
2.37
2.55
Modelo de Corredor
0.37
0.35
0.33
0.32
0.30
0.29
0.28
0.27
0.26
0.26
2.51
2.67
2.82
2.97
3.10
3.21
3.30
3.36
3.41
3.46
0.18
0.32
0.41
0.49
0.54
0.59
0.64
0.67
0.71
0.74
n=10
0.19
0.33
0.43
0.50
0.56
0.63
0.65
0.69
0.73
0.76
0.20
0.37
0.52
0.65
0.77
0.88
0.98
1.07
1.15
1.22
Modelo
0.20
0.19
0.17
0.16
0.15
0.15
0.14
0.13
0.13
0.12
Esférico
1.22
1.29
1.36
1.42
1.48
1.52
1.55
1.57
1.59
1.60
0.27
0.45
0.58
0.66
0.73
0.78
0.82
0.86
0.88
0.91
105
TABLA 5.4.5.2/3
FRECUENCIA RELATIVA DE ÉXITO ÓPTIMA PARA EL CONTROL DEL TAMAÑO DE
PASO DE LOS ALGORITMOS (1,λ) Y (1+λ)
λ
1
2
3
4
5
6
7
8
9
10
ALGORITMO (1,λ)
—
0.60
0.65
0.70
0.75
0.80
0.80
0.85
0.85
ALGORITMO
0.20
0.40
0.50
0.60
0.65
0.70
0.75
0.80
0.80
0.85
(1+λ)
106
107
108
5.4.6 Conclusiones
Las conclusiones originales que se han obtenido en esta
parte de la Tesis son:
1) Para los algoritmos (1,λ) y (1+λ), el tamaño de paso
puede controlarse y adaptarse a su valor óptimo mediante
las frecuencias relativas de éxito óptimas que se recogen
en la tabla 5.4.3.2/3.
2) Entre los posibles algoritmos (1,λ), los mejores son los
correspondientes a λ=5 y λ = 6 .
3) Entre los posibles algoritmos (1+λ) el mejor de ellos
es el correspondiente a λ = 1.
4) Entre todos los posibles algoritmos (1,λ) y (1+λ), el
mejor de ellos es el algoritmo (1+1). Parece ser que la
sencillez de los programas de ordenador relacionados con
estrategias naturales les proporciona gran potencia y
robustez, ya que si el algoritmo (1+1) ha demostrado
ser el mejor de todos los estudiados para resolver pro
blemas de optimización, también el algoritmo TIT FOR TAT
(Ref. 10), cuya simplicidad es casi insultante, propor
ciona resultados extraordinarios en los problemas de evo
lución de la conducta cooperativa.
109
5.5 MEJORA DE LOS ALGORITMOS GENÉTICOS
En esta Tesis se han analizado sucíntamente los algoritmos
(μ,λ) y (μ+λ) y, exhaustivamente, sus casos particulares para
μ = 1.
Estos algoritmos están basados en el modelo altamente sim
plificado de la Evolución, recogido en el apartado 5.2, que sólo
incluye el principio de mutación (de genes)-selección.
Sin embargo, según la teoría moderna de la Evolución, el
proceso evolutivo se basa fundamentalmente en los siguientes meca
nismos:
1. Mutación de genes
2. Mutación de cromosomas
3. Cruce o recombinación
4. Selección
5. Aislamiento
Los factores 1 a 3 son responsables de la generación de
nuevos puntos en el espacio de nucleótidos. La selección elimina
aquellos puntos que corresponden a regiones con vitalidad asocia
da baja. El mecanismo de aislamiento mantiene separados los puntos
del espacio de nucleótidos que forman "canales de éxito" distin
tos.
Dentro del factor 2 (mutación de cromosomas) se pueden
distinguir los casos siguientes:
- Duplicación
- Deleción
- Translocación
- Inversión
De estos casos, sólo se considera importante para un pri
mer intento de mejora de los algoritmos genéticos el mecanismo de
inversión.
El cruce o la recombinación consiste en un intercambio
de secciones entre dos cromosomas.
La introducción del cruce en el modelo de Evolución estu
diado debe proporcionar buenos resultados para la evolución, como
se desprende del hecho de que únicamente los organismos muy sim
ples renuncian a él. Además, existen dos importantes mecanismos
de herencia, los cuales utilizan el cruce: la herencia diploide
y la herencia haploide.
Los seres vivientes más avanzados tienen un mecanismo de
herencia diploide, por lo que la implementación de este mecanismo
en un algoritmo genético parece más prometedora que la de la
herencia haploide.
Se pueden utilizar las analogías del apartado 5.2 para im-
plementar el cruce y la inversión en los algoritmos genéticos ana
lizados anteriormente.
a) Cruce
Se define el Operador Cruce Elemental, ci, como:
110
111
ci: {Sn x Sn} {Sn x Sn} ,
ci{x1,x2} = ci{(x
11,...,x
1n)
T,(x2l,...,x2n)
T} =
= (x11 ,...,x1i-1 ,x
2i ,x
1i+1 ,...,x
1n)
T , (x21 ,...,x2i-1 ,x
1i ,x
2i+1 ,...,x
2n)
T
= y1,y2 5.5/1
El algoritmo de generación de nuevos puntos mediante este
Operador Cruce Elemental, puede ser como sigue:
Etapa 1: Elegir un punto x1 dentro de la población considerada,
de acuerdo con determinada probabilidad, función de su
vitalidad (valor asociado de la función objetivo).
Etapa 2: Elegir un punto x2 de la misma forma que se ha elegido x1.
Etapa 3: Elegir una componente i, entre 1 y n, con función de den
sidad uniforme.
Etapa 4: Mediante la expresión 5.5/1, obtener dos nuevos puntos,
y1 , y2 .
Etapa 5: Eliminar de la población el punto o los puntos con peor
valor de la función objetivo.
b) Inversión
Se define la estructura de inversión como una permutación
de la secuencia 1,2,...,n representada por i1,i2,..,in, o más abre
viadamente por i, de tal forma que:
112
i: {Sn} {Sn} ,
i{x1} = y1, donde y1k=x1ik k = 1(1)n 5.5/2
El algoritmo de generación de un nuevo punto a partir de
otro, puede ser como sigue:
Etapa 1: Elegir un punto x1 dentro de la población considerada,
de acuerdo con determinada probabilidad, función de su
vitalidad (valor asociado de la función objetivo).
Etapa 2: Elegir con función de densidad uniforme, una estructura
de inversión, i, entre las n! posibles.
Etapa 3: Mediante la expresión 5.5/2, obtener un nuevo punto y1.
Etapa 4: Eliminar de la población el punto con peor valor de la
función objetivo.
Tanto el cruce como la inversión pueden contribuir a mejorar
aquellos algoritmos genéticos que utilicen solamente el mecanismo
de mutación-selección. Sin embargo, la mutación será siempre la
regla genética más importante, pues produce puntos totalmente
nuevos en la población, mientras que el cruce y la inversión ge
neran únicamente un número finito de variantes.
Para terminar, hay que decir que es necesaria una investi
gación teórica más profunda en el área.
113
6. DISEÑO DE PROGRAMAS PARA LOS ALGORITMOS GENÉTICOS (1,λ) y (1+λ)
Se han desarrollado dos subrutinas FORTRAN, una para los
algoritmos (1,λ) y otra para los (1+λ), las cuales han sido imple-
mentadas en el ordenador PDP 11/60 de la Cátedra de Mecánica del
Vuelo. La base de las subrutinas mencionadas se encuentra en el
programa EVOL de Schwefel (Ref. 6).
Las características más sobresalientes de estas subrutinas
se indican a continuación.
Objeto:
- Búsqueda del mínimo de f(x), x* є
sin utilizar i = 1(1)n 6/1
- Pueden tenerse en cuenta ligaduras de desigualdad.
gj(x) 0 j = 1(1)m . 6/2
Entradas:
λ: número de hijos
n: número de variables o dimensión del espacio
m: número de restricciones de desigualdad
T: tiempo de cálculo máximo permitido
PC: parámetro de control del tamaño de paso. La frecuencia
relativa de éxito óptima está directamente relacionada
con PC, mediante:
6/3
114
CA: parámetro auxiliar para comprobar la convergencia del
algoritmo. Los criterios de convergencia se comprueban
en las 10 • n • PC • CA últimas búsquedas.
εa: límite inferior absoluto para el tamaño de paso.
εb: límite inferior, relativo al valor de las variables,
para el tamaño de paso.
εc: criterio de convergencia absoluto.
6/4
f1 = minf(x) 6/5
10n·PC·CA últimas búsquedas
f2 = maxf(x) 6/6 10n·PC·CA últimas búsquedas
εd: criterio de convergencia relativo
6/7
últimas búsquedas
donde f1 y f2 vienen dadas por las expresiones 6/5 y 6/6.
SC: magnitud auxiliar para reducción o aumento del tamaño
de paso.
xo: punto inicial.
σo: desviación típica inicial (las componentes de este vec
tor pueden ser distintas).
Salidas:
f(x*): valor mínimo de la función objetivo.
x*: punto para el que la función objetivo es mínima.
Observaciones:
- La determinación de mínimos en bordes y esquinas es lenta
y, a veces, poco precisa.
- No se garantiza la convergencia global.
115
7. PRUEBA Y AJUSTE DE LOS PROGRAMAS DISEÑADOS
7.1 INTRODUCCIÓN
En este capítulo se comentan las pruebas y posteriores
ajustes de los programas de ordenador diseñados para los algorit
mos (1,λ) y (1+λ).
En el apartado 7.2 se recopilan una serie de funciones ob
jetivo de prueba que se han encontrado al realizar una revisión
exhaustiva de la literatura especializada en el tema, algunas de
las cuales pueden utilizarse para probar y ajustar los programas.
Y el apartado 7.3 presenta algunos resultados interesantes
que se han obtenido al efectuar estas pruebas y ajustes.
116
117
7.2 FUNCIONES OBJETIVO DE PRUEBA
7.2.1 Generalidades
Este apartado presenta algunas funciones objetivo de prueba,
frecuentemente utilizadas en la literatura revisada sobre la so
lución de los problemas de optimización.
Las funciones objetivo de prueba han sido clasificadas en
cinco grupos:
a) Funciones Objetivo de Prueba para Problemas de Optimiza
ción sin Ligaduras.
b) Funciones Objetivo de Prueba para Problemas de Optimiza
ción con Ligaduras.
c) Funciones Objetivo de Prueba para Problemas Globales de
Optimización.
d) Funciones Objetivo de Prueba que aparecen en Problemas
Técnicos Típicos.
e) Funciones Objetivo de Prueba con Analogía Biológica.
Estas funciones objetivo de prueba se han obtenido de las
Refs. 3 , 4 , 6 , 8 , 1 1 , 1 2 y 13.
118
7.2.2 Funciones Objetivo de Prueba para Problemas de 0ptimizaci<5n
sin Ligaduras
1) Función Esférica
7.2.2/1
Mínimo: x* = 0 , f(x*) = 0
2) Función de Indices
7.2.2/2
Mínimo: x* = 0 , f(x*) =0
3) Función de Indices Cuadrados
7.2.2/3
Mínimo: x* = 0 , f(x*) = 0
4) Función de Expansión de Coordenadas (fig. 7.2.2/1)
7.2.2/4
Mínimo: x* = 0 , f(x*) = 0
119
5) Función de Wood (Generalización de la Función de Rosen-
brock, fig. 7.2.2/2)
f(x) = 100(x2-x12)2 + (1-x 1)
2 + 90(x4-x32)2 + (1-x3)
2 +
+ 10.1[(x2-1)2 + (x4-1)
2] + 19.8(x2-1)(x4-1) 7.2.2/5
Mínimo: x* = (1,1,1,1)T , f(x*) =0
7.2.3 Funciones Objetivo de Prueba para Problemas de 0ptimización
con Ligaduras
1) Función de Chichinadze
7.2.3/1
7.2.3/2
Mínimo: x* = (5.62,0.50)T , f(x*) = -40.964.
2) Función de Bracken y McCormick (fig 7.2.3/1)
f ( x ) = - x 12 - x 2
2 7.2.3/3
xi 0 i = 1,2
-x1-4x2+5 0 7.2.3/4
-x1+1 0
Mínimo: x* = (1,1)T , f(x*) = -2
3) Función de Johnson
f(x) = x 1x 2x 3x 4 7.2.3/5
xl3+x2-1 = 0
x12x4-x3 = 0 7.2.3/6
x42-x2 = 0
120
Mínimo: f(x*) = -0.25
4) Función de Danskin
7.2.3/7
7.2.3/8
x i, yi 0 i = 1 , 2
x1+x2=1 7.2.3/9
y 1 + y 2 = 1
Mínimo: f* = 1.88
121
122
7.2.4 Funciones Objetivo de Prueba para Problemas Globales de
Optimización
1) Función de Shekel
7.2.4/1
x = (x 1,...,x n)T , ai = (a i 1,...,a i n)
T , ci > 0 i = 1(1)l
0 xj 10 j = 1(1)n 7.2.4/2
Esta función objetivo de prueba tiene l mínimos cuya situa
ción es ai y cuyos valores dependen de ci.
2) Función de Hartman
7.2.4/3
x = (x1,...,xn)T , pi = (P i 1,...,P i n)
T ; αi = (α
i 1,...,α
i n)
T
ci> 0 , i = 1 ( 1 ) l
0 xj 1 j= 1(1)n 7.2.4/4
Esta función objetivo de prueba tiene l mínimos cuya situa
ción es aproximadamente pi y cuyos valores dependen de ci.
3) Función de Branin
f(x) = a(x2-bx12 +cx1-d)
2 + e(1-f)cosx1 + e 7.2.4/5
123
a = 1, b = 5.1/(4Π)2, c = 5/Π, d = 6, e = 10, f = 1/(8Π)
-5 x1 10
7.2.4/6
0 x2 15
En esta región hay tres mínimos, todos ellos globales.
4) Función de Goldstein y Price
f(x) = [1 + (xl+x2+1)2(19-14x1+3x1
2-14x2+6x1x2+3x22)]·
·[30 + (2x1-3x2)2(18-32x1+12x1
2-48x2-36x1x2+27x22)]
7.2.4/7
-2 xi 2 i = 1,2 7.2.4/8
Hay cuatro mínimos locales. El mínimo global se da para
x* = (0,-1)T , f(x*) = 3.
5) Función de Hosaki
7.2.4/9
0 x1 5 7.2.4/10
0 x 2 6
Hay dos mínimos: x = (1,2)T , f(x) = -1.127 (local)
x = (4,2)T , f(x) = -2.345 (global)
124
7.2.5 Funciones Objetivo de Prueba que aparecen en Problemas Téc
nicos Típicos
1) Problema de Diseño de un Transformador
f(x) = 0.0204x1x4(x1+x2+x3) + 0.0187x2x3(x1+1.57x2+x4) +
+ 0.0607x1x4x52(x1+x2+x3) + 0.0437x2x3x6
2(x1+1.57x2+x4)
7.2.5/1
i = 1(1)6
7.2.5/2
2) Problema de Planificación de Potencia Estática
f(x) = 3000x1 + 1000x13 + 2000x2 + 666.667x2
3 7.2.5/3
0.4-x1+2Cx52+x5x6[Dsen(-x8)-Ccos(-x8)] +
+ x5x7[Dsen(-x9)-Ccos(-x9)] =0
0.4-x2+2Cx62+x6x5[Dsen(x8)-Ccos(x8)] +
+ x6x7[Dsen(x8-x9)-Ccos(x8-x9)] = 0
0.8+2Cx72+x7x5[Dsen(x9)-Ccos(x9)] +
+ x7x6[Dsen(x9-x8)-Ccos(x9-x8)] = 0
0.2-x3+2Dx52+x5x6[csen(-x8)+Dcos(-x8)] -
- x5x7[Csin(-x9)+Dcos(-x9)] = 0 7.2.5/4
125
1.0909 xi 0.90909 i = 5,6,7
donde:
C = sen(0.25)48.4/50.176
D = cos(0.25)48.4/50.176
3) Problema de Modelado de un Transistor
7.2.5/5
donde
αk
= (1-x
1x
2)x
3{exp[x
5(g
1 k-g
3 kx
7x10 - 3
g5 kx
8x10 - 3
)] - 1} -
- g5 k + g
4 kx
2
βk = (1-x
lx
2)x
4{exp[x
6(g
1 k-g
2 k-g
3 kx
7x10- 3
+g4 kx
9x10 - 3
)] - 1}
- g5 kx
1 + g
4 k
y las constantes numéricas gik vienen dadas por la matriz:
xi 0 i = 1,...,9 7.2.5/6
0.2-x4 + 2Dx62-x6x5[Csen(x8)+Dcos(x8)] -
- x6x7[Csen(x8-x9)+Dcos(x8-x9)] = 0
-0.337 + 2Dx12-x7x5[Csen(x9)+Dcos(x9)] -
- x7x6[Csen(x9-x8)+Dcos(x9-x8)] = 0
126
7.2.6 Funciones Objetivo de Prueba con Analogía Biológica
1) Evolución Mimética
f ( x ) = | | x * - x | | H 7.2.6/1
x = (x1,...,xn)T , xi є {0,1} i = 1(1)n
|| ||H : Distancia de Hamming, definida como el número de
elementos xi que son diferentes entre los puntos
x* y x.
Mínimo: x = x* , f(x*) = 0
Ejemplo: el problema anteriormente expuesto puede ser
aplicado a la Evolución Mimética de la forma siguiente:
n = 81
Punto inicial: xo = 0
Este punto representa una mariposa con alas
blancas (fig 7.2.6/1a). Esta mariposa agrada
a los pájaros.
Mínimo: x* = (11000000111000100111000000111001100111001100
1110000001110011001110000001111111111)T
El ala de la mariposa se divide en 81 cuadra
dos y cada cuadrado se dibuja de negro si
xi=1 y se deja blanco si xi=0 (fig. 7.2.6/1b)
Esta mariposa no agrada a los pájaros.
127
Él número de etapas necesarias para ir desde xo hasta x*,
cuando se aplica un método de optimización basado en los algorit
mos genéticos, da una idea acerca del tiempo requerido por la evo
lución natural para obtener la segunda mariposa a partir de la
primera.
128
FIGURA 7.2.2/1
FUNCIÓN DE EXPANSIÓN DE COORDENADAS: f (x) = x12 + (x1+x2)
2.
f(x)
129
FIGURA 7.2.2/2
FUNCIÓN DE ROSENBROCK: f(x) = 100(x2-x12)2 + (1-x1)
2.
f1(x)
130
FIGURA 7.2.3/1
FUNCIÓN DE BRACKEN Y MACCORMICK: f(x) = -x12 - x2
2
x i 0 , i = 1 , 2
-x1-4x2+5 0
-x1+1 0
131
132
7.3 RESULTADOS OBTENIDOS
Los algoritmos diseñados han sido probados y ajustados con
varias funciones objetivo, demostrando su buen comportamiento.
Una de las funciones más utilizadas ha sido la función de
Shekel, la cual presenta características tan interesantes como la
posibilidad de que el usuario la diseñe incluso desde el punto de
vista de multimodalidad.
En todos los casos analizados se corroboran, en general,
las conclusiones obtenidas en el subapartado 5.4.6. Por ejemplo,
para el caso en que la función objetivo sea la función de Shekel,
con
n = 1 0 a1j = 5.0 , j = 1(1)10
l=1 C1 = 0.025
y sin ligaduras de desigualdad, se obtienen los resultados que
presentan las tablas 7.3/1 y 7.3/2.
133
TABLA 7.3/1
RESULTADOS OBTENIDOS CON EL PROGRAMA (1+λ)
Entradas:
n = 10, m = 0, T = 900.0s, CA = 3, εa = ε
b = ε
c = ε
d = 10
-5 ,
SC = 0.85, xi
o = 0.0 (i = 1(1)9), x
10
o = 10.0, σ
i
o = 0.5 (i = 1(1)10)
Salidas:
f(x*) = -39.99999 , xi* = 5.0000 (i = 1(1)10)
λ
1
2
3
4
5
6
7
8
9
10
PA
1.000
0.500
0.400
0.333
0.308
0.286
0.267
0.250
0.250
0.235
TIEMPO EN ALCANZAR EL MÍNIMO (s)
12.48
12.76
14.82
19.40
24.22
21.74
25.32
28.70
32.30
34.52
NUMERO DE EVALUACIONES DE f(x)
1201
1201
1441
1921
2401
2161
2521
2881
3241
3601
134
TABLA 7.3/2
RESULTADOS OBTENIDOS CON EL PROGRAMA (1,λ)
Entradas:
n = 10, m = 0, T = 900.0s, CA = 3, εa = ε
b = ε
c = ε
d = 1 0
- 5 ,
SC = 0.85, xi
o = 0.0 (i=1(1)9), x
10
o = 10.0, σ
i
o = 0.5 (i=1(1)10)
Salidas:
f(x*) = -39.9999 , xi* = 5.0000 (i = 1(1)10)
* El mínimo no se ha alcanzado. El algoritmo se ha detenido en un punto no válido.
λ
2
3
4
5
6
7
8
9
10
PA
0.333
0.308
0.286
0.267
0.250
0.250
0.235
0.235
0.235
TIEMPO EN ALCANZAR EL MÍNIMO (s)
*
*
18.68
22.94
21.84
31.66
28.78
32.40
34.60
NUMERO DE EVALUACIONES DE f(x)
*
*
1801
2251
2161
3151
2881
3241
3601
135
8. APLICACIÓN DE LOS ALGORITMOS GENÉTICOS PARA LA RESOLUCIÓN DE
UN PROBLEMA DE OPTIMIZACION EN MECÁNICA DEL VUELO
8.1 INTRODUCCIÓN
Una vez diseñados, probados y ajustados los programas de
ordenador cuya base fundamental son los Algoritmos Genéticos,
se pasa a la resolución, mediante ellos, de un problema típico
de Mecánica del Vuelo.
El apartado 8.2 propone el problema a estudiar y ofrece
su solución teórica que, por fortuna, existe en este caso.
Y el apartado 8.3 muestra la solución obtenida mediante
los programas de ordenador disponibles para unos valores concre
tos de los parámetros del problema teórico formulado en el apar
tado anterior.
136
8.2 EL PROBLEMA ESTUDIADO. RESOLUCIÓN TEÓRICA
Enunciado:
Se considera un misil no sustentador, cuya resistencia es
proporcional al cuadrado de la velocidad y cuyo empuje es propor
cional al gasto másico de combustible del motor. Este gasto másico
puede variar entre cero y un valor máximo. Se supone, además, que
el ángulo de asiento de la velocidad es muy pequeño y que la com
ponente del peso del misil según la tangente a la trayectoria es
despreciable. Se pretende determinar la ley de control que maximi-
ce el alcance del misil, para unos valores prefijados de las masas
y de las velocidades iniciales y finales.
Formulación
- Hipótesis previas
L = 0 8.2/1
D = kV2 8.2/2
T = Is p
β 8.2/3
8.2/4
γ << 1 8.2/5
Wγ << T 8.2/6
- Ecuaciones del movimiento en un plano vertical
- V = 0 8.2/7
- Vγ = 0 8.2/8
8.2/9
137
8.2/10
+ β =0 8.2/11
Si se utiliza la masa como variable independiente
8.2/12
8.2/13
8.2/14
8.2/15
8.2/16
Variables dependientes x, h, V, γ, t, β
Variable independiente m
Ecuaciones 5
Grados de libertad 1
- Región de displazamientos admisibles en el diagrama V,m
Si se parte de un punto inicial, I, y se quiere llegar a un
punto final, F, los desplazamientos admisibles se muestran en la
figura 8.2/1.
Las líneas ID y CF vienen dadas por la ecuación:
m = m o 8.2/17
138
Las líneas IC y DF responden a la ecuación:
8.2/18
En las expresiones 8.2/17 y 8.2/18, mo y Vo representan la
masa y velocidad en el punto de partida.
- Maximización del alcance
De 8.2/12 y de 8.2/14 se obtiene:
8.2/19
8.2/20
Sustituyendo 8.2/20 en 8.2/19 e integrando:
8.2/21
La cuestión a resolver es cual de todos los posibles cami
nos que van desde el punto I al punto F de la figura 8.2/1, maxi-
miza la ecuación 8.2/21.
139
Resolución teórica
Según la Ref. 14 para resolver este problema sólo es ne
cesario estudiar el comportamiento del signo de la llamada función
fundamental, la cual, para una integral lineal de la forma
8.2/22
se define como
8.2/23
En el caso estudiado:
8.2/24
8.2/25
8.2/26
Según la citada Ref. 14, si ω > 0 la integral lineal 8.2/21
se maximizará por el camino IDF y se minimizará por el ICF.
140
FIGURA 8.2/1
REGIÓN DE DESPLAZAMIENTOS ADMISIBLES
F C
I D
141
8.3 RESOLUCIÓN DE UN CASO CONCRETO MEDIANTE LOS ALGORITMOS GENÉTICOS
El caso concreto que será resuelto mediante los programas
desarrollados es el siguiente:
Isp = 2000 Ns/kg mI= 200 kg
k = 0.02695 kg/m mF= 170 kg
βmax = 1.5 kg/s VI = V
F = 300 m/s
Con los valores anteriores se obtiene la región de despla
zamientos admisibles que recoge la Fig 8.3/1.
Los resultados obtenidos se han representado mediante pun
tos en la figura mencionada. El alcance máximo conseguido es
10243 m.
Es de destacar el excelente comportamiento de los progra
mas desarrollados.
142
143
9. CONCLUSIONES
En la presente Tesis se han obtenido los siguientes resul
tados originales:
1) Sistematización en el área de los Algoritmos Genéticos.
2) Clasificación de los métodos probabilísticos y resumen
de las técnicas más importantes encuadradas en cada Ca
tegoría propuesta.
3) Obtención de las probabilidades de éxito, cuando el ta
maño de paso es óptimo, para los modelos de corredor y
esférico y para los algoritmos (1,λ) y (1+λ).
4) Obtención de un método que permite controlar el tamaño
de paso y adaptarlo a su valor óptimo, para una función
objetivo cualquiera.
5) Conclusión de que entre los algoritmos (1,λ), el mejor
de ellos es el correspondiente a λ = 5 ó λ = 6 .
6) Conclusión de que entre los algoritmos (1+λ), el mejor
de ellos es el correspondiente a λ = 1.
7) Conclusión de que entre todos los algoritmos (1,λ) y
(1+λ), el mejor de ellos es el (1+1).
8) Diseño y puesta a punto de programas de ordenador basados
en los algoritmos (1,λ) y (1+λ).
144
9) Conclusiones idénticas a las mencionadas en los puntos
5), 6) y 7 ) , obtenidas al aplicar los programas diseña
dos a funciones objetivo de prueba.
10) Resolución de un problema típico de Mecánica del Vuelo
(maximización del alcance de un misil no sustentador)
mediante la utilización de los Algoritmos Genéticos.
145
APÉNDICE I
LA REVOLUCIÓN DARWINISTA. EL EVOLUCIONISMO
La idea de la Evolución, en contra de lo que pudiera pen
sarse, proviene de muy antiguo. En Grecia y Roma ya existían opi
niones que basaban el origen de los organismos en leyes naturales.
Sin embargo, cualquier especulación en torno al proceso evo
lutivo quedó truncada por dos hechos históricos trascendentales:
la aparición de los sistemas filosóficos de Platón y Aristóteles,
y la aparición y posterior expansión del cristianismo.
La Teoría de las Ideas de Platón postula la existencia
transcendente del mundo que contemplamos; todas las cosas de este
mundo tienen un modelo transcendente, por lo cual es absurda cual
quier separación, por pequeña que sea, de ese modelo. La Metafísi
ca de Aristóteles también impide el paso al Evolucionismo, aunque
este autor no postule la realidad de una Idea independiente de la
cosa representada.
Estas filosofías, unidas al relato que realiza el Génesis
de la Creación, condujeron a una concepción estática del mundo,
la cual perduró hasta el final de la Edad Media.
Si dos hechos fueron los causantes principales de la men
cionada imagen estática del mundo, otros dos acontecimientos de
bilitaron esa concepción. El primero fue el nacimiento de una Fí
sica nueva, que culmina con los "Principia" de Newton, la cual pu
so en tela de juicio la aceptación textual de los relatos bíblicos.
Y el segundo acontecimiento fue el adelanto realizado en
ciencias geológicas y biológicas como, por ejemplo, toda una serie
de descubrimientos de distintas formas fósiles. Este hecho concre-
146
to hizo que se cuestionara el que la edad de la Tierra fuese tan
corta como parecía desprenderse de la Biblia.
La autoridad de la Biblia, por tanto, disminuyó algo a fi
nales del siglo XVII aunque, concretamente en Gran Bretaña, se
reforzó de nuevo en el siglo XVIII como consecuencia del evange-
lismo predicado por John Wesley. Y esta autoridad continuó siendo
un importante factor en el siglo XIX.
Independientemente de esto, hacia finales del siglo XVIII
y principios del siglo XIX las especulaciones acerca de la evolu
ción de los seres vivos ya no era novedosas, aunque tampoco esta
ban muy extendidas ni eran aceptadas en su totalidad.
El primer estudio sistemático a favor de un punto de vista
evolucionista que explicara el origen de los seres vivos fue rea
lizado por el biólogo francés Jean Baptiste de Lamarck. La obra
de Lamarck, a pesar de estar escrita en un lenguaje muy poco pre
ciso y a pesar de contener varios errores importantes, constituyó
una aceptable base para la posterior obra de Darwin.
Lamarck creía que todo el reino animal se podía ordenar en
una escala descendente (la llamada "Cadena del Ser" ó "Escala de
la Naturaleza") en la que el hombre ocupaba la parte más alta y
los infusorios la parte más baja. Se sospecha que Lamarck veía a
los seres vivos transformarse siguiendo una dirección predetermi
nada cuyo extremo y fin, en el reino animal, era el hombre. Esta
es la razón por la que, de alguna forma, Lamarck era un teólogo
ya que explicaba los hechos en estudio mediante causas finales.
El rasgo más conocido de la teoría de Lamarck es que cual
quier novedad adquirida por un individuo antes de la procreación
gracias a un comportamiento determinado y a un entorno específico,
puede ser transmitida a la progenie, si no por completo, si al
147
menos parcialmente. Esta idea, denominada "lamarckismo" es insos
tenible, pues el fundamento sobre el que descansa (las propieda
des adquiridas son heredables) es falso, según se demostró poste
riormente.
Y este era el estado de la cuestión cuando surgió la figura
de Charles Robert Darwin (1809-1882).
La Revolución Darwinista no se puede contemplar desde un
punto de vista único; tuvo aspectos, causas y efectos muy diferen
tes. Con frecuencia se la presenta como el triunfo de la ciencia
sobre la religión, pero a pesar de que esta idea sea fundamental,
la evaluación así hecha es inadecuada. Un análisis exhaustivo del
fenómeno darwinista, el cual no será realizado aquí por razones
obvias, debería incluir los aspectos científico, filosófico, teo
lógico, social y político, todos ellos interrelacionados entre
sí.
Vistos todos estos aspectos de forma global, se puede decir
que la Revolución Darwinista completa la Revolución Copernicana
que comenzara a mediados del siglo XVI y que prosiguieran después
Galileo, Kepler y Newton.
La importancia fundamental de la Revolución Copernicana fue
llegar a la conclusión de que el Universo obedece a leyes inmanen
tes, las cuales determinan los fenómenos naturales. De esta forma
se sustituye una concepción animista del Universo por una concep
ción causal.
Darwin extiende al mundo orgánico el concepto de Natura
leza derivado de la Física y la Geología, es decir, el que no es
necesario el postulado de la existencia de agentes sobrenaturales
para explicar los fenómenos orgánicos.
En este momento el hombre occidental alcanza su madurez in-
148
telectual, ya se enfrenta a la Naturaleza con la confianza de
que ésta es comprensible y, en algunos aspectos, modificable.
A continuación, y una vez resumidos los aspectos históricos
más sobresalientes de la Revolución Darwinista, se exponen, tam
bién abreviadamente, las ideas fundamentales del Evolucionismo.
En 1859 Darwin publicó su célebre obra: "On the Origin of
Species by Means of Natural Selection" ó "The Preservation of
Favoured Races in Struggle for Life". En ella estableció las bases
del Evolucionismo, las cuales, como casi todas las ideas revolucio
narias que han cambiado el mundo, son de extrema sencillez y, al
mismo tiempo, de gran potencia.
El Evolucionismo explica la adaptación de los organismos a
su entorno por medio del mecanismo fundamental de mutación-selec
ción.
En una población determinada, algunos individuos sufren
cambios espontáneos heredables, o lo que es lo mismo, mutaciones.
Las causas por las que aparecen estas mutaciones no son completa
mente conocidas en la actualidad. Parece ser que influyen en ellas
muchos factores (uno de los más conocidos es la radiación de ondas
electromagnéticas) y que el que se produzcan o no es un proceso
aleatorio.
A continuación, de esa población en estudio sobreviven los
individuos mejor adaptados a su medio ambiente. Este es el mecanis
mo de la selección natural. Obsérvese que ésta favorece el carác
ter continuamente adaptativo de los organismos, pues de todos los
individuos sobreviven aquellos que han sido favorecidos por muta
ciones aleatorias que aumenten la probabilidad de supervivencia,
las cuales son transmitidas a la descendencia, con lo que la po-
149
blación mejora globalmente.
Si no existiesen mutaciones (el azar), no podría darse el
proceso evolutivo pues no habría variantes alternativas sobre
las que pudiese actuar la selección y si no existiese la selec
ción (el determinismo) se obtendría la misma conclusión, ya que
las mutaciones, por ser aleatorias, son desfavorables en su ma
yor parte y de esta forma se llegaría a la desorganización y ex
tinción de la población.
El problema que surge ahora es el siguiente: ¿Están los
seres vivos completamente adaptados o, lo que es lo mismo, com
pletamente optimizados con respecto a su entorno? A pesar de que
los seguidores de Leibniz y los biólogos neodarwinistas, defen
sores de las teorías panglossianas, opinen que la optimización
es total y de que se haya comprobado que existen en la Naturaleza
soluciones óptimas para algunos problemas, la respuesta no parece
ser esa en la actualidad.
Sin embargo, sí parece claro a la luz del presente conoci
miento biológico que los seres vivos están, al menos, parcialmente
optimizados en relación con su medio ambiente.
Para terminar esta breve síntesis del Evolucionismo, con
viene citar textualmente a F.J. Ayala (Ref. 15): "La teoría de
la evolución nos muestra el azar y la necesidad intrincados en
el meollo de la vida, la casualidad y el determinismo entrelaza
dos en un proceso natural que ha producido las realidades más com
plejas del Universo, los seres vivientes; y entre ellos, el hom
bre, capaz de pensar y de amar, capaz del libre albedrío y de ana
lizar el proceso mismo de la evolución que le ha traído a la exis
tencia" .
150
APÉNDICE II
VOCABULARIO DE GENÉTICA BÁSICA
AISLAMIENTO: El mecanismo de aislamiento, mediante el desarrollo
de barreras de reproducción, mantiene separados los puntos
del espacio de nucleótidos que forman los distintos "cana
les de éxito". Así, pueden seguir evolucionando separada
mente.
ALELO: Cada una de las diversas formas alternativas en que se pue
de presentar un gen. Un alelo se distingue de los demás por
pequeños cambios de su estructura bioquímica.
CÉLULA: Unidad morfológica y fisiológica que compone el cuerpo de
las plantas y animales. Tiene vida propia y está constitui
da por protoplasma, en general, y por citoplasma y núcleo,
en particular.
CENTROMETRO: Punto central de un cromosoma donde se unen las dos
cromátidas.
CITOPLASMA: Parte del protoplasma que constituye la sustancia viva
de la célula, con exclusión del núcleo.
CROMATIDA: Cada uno de los dos brazos paralelos de un cromosoma.
Las dos cromátidas están unidas, en sus puntos centrales,
por el centrómetro.
CROMOSOMA: Orgánulo lineal, fuertemente tingible por cualquier co
lorante (propiedad de la que obtiene su nombre), que con
tiene los genes. Los cromosomas constituyen el núcleo de
las células de los seres vivos eucariotas y se presentan
en número constante en cada especie.
151
CRUCE: También denominado recombinación o incluso crossover. Con
siste en un cambio de secciones de cromosomas entre pares
de estos. El proceso tiene cuatro etapas: en la primera
los cromosomas se agrupan en pares; en la segunda, apare
cen puntos de fusión en los cromosomas homólogos; en la
tercera etapa, se intercambian secciones, llamadas quias
mas, entre los dos cromosomas homólogos; y por último, en
la cuarta etapa, se separan los cromosomas homólogos.
DELECION: Anomalía cromosómica estructural por la que una sección
de un cromosoma se rompe y se pierde. El número de genes
del cromosoma disminuye.
DIPLOIDE: Una célula se dice que es diploide si tiene n parejas
de cromosomas, es decir, si el número total de cromosomas
es 2n. Se dice que un mecanismo de herencia es diploide
si el cruce entre los cromosomas de los padres tiene lugar
después de la generación del nuevo ser.
DUPLICACIÓN: Anomalía cromosómica estructural por la que una sec
ción de un cromosoma se duplica. El número de genes del
cromosoma aumenta.
EUCARIOTA: Dícese de los seres vivos cuyas células tienen núcleo.
Constituyen la casi totalidad de los organismos.
FENOTIPO: Se denomina así al conjunto de rasgos somáticos, físicos,
bioquímicos, psíquicos, etc. que se presentan en un ser vi
vo. Es la manifestación externa del genotipo.
GEN: Es, por definición, la unidad de factor genético; aquella
capaz y suficiente para dar lugar a la producción de un
cierto carácter somático o bioquímico.
152
GENERACIÓN: En determinada especie, conjunto de todos los seres
vivos coetáneos. Dícese también del hecho de crear o pro
ducir algo (descendientes, en el caso particular de la Bio
logía) .
GENOTIPO: Conjunto de todos los genes de un ser vivo. Es la carac-
terlstica o carga genética total del individuo.
HAPLOIDE: Una célula se dice que es haploide si tiene solamente
n cromosomas (sin formar parejas). Se dice que un mecanis
mo de herencia es haploide si el cruce entre los cromosomas
de los padres tiene lugar antes de la generación del nuevo
ser.
HETEROCIGOTICO: Un individuo será heterocigótico si los dos alelos
que ocupan un determinado locus son distintos.
HOMOCIGOTICO: Un individuo será homocigótico si los dos alelos que
ocupan un determinado locus son idénticos.
INDIVIDUO: Sinónimo de ser vivo u organismo diferenciado.
INVERSIÓN: Anomalía cromosómica estructural por la que una sección
de un cromosoma se rompe, gira 180º y se fija de nuevo en
el mismo cromosoma. El número de genes del cromosoma no cam
bia.
LOCUS: Lugar geométrico dentro de un cromosoma, ocupado por un de
terminado gen.
MEIOSIS: División doble peculiar, que sólo tiene lugar en las gó-
nadas (testículos y ovarios) y cuya finalidad es la de pro
ducir gametos (espermatozoides y óvulos) haploides.
MITOSIS: División regular, por la cual una célula diploide origina
dos células hijas asimismo diploides.
MUTACIÓN: Cambio aleatorio de un gen producido por multitud de cau
sas, algunas de las cuales no son totalmente conocidas, y
153
que se transmite hereditariamente a los descendientes.
NÚCLEO: Corpúsculo especializado del protoplasma de todas las
células vivas. Está constituido, esencialmente, por los
cromosomas y está rodeado por el citoplasma. Actúa como
órgano rector de las funciones de nutrición y reproduc
ción de la célula.
NUCLEOTIDO: Los ácidos nucleicos (ácido desoxiribonucleico, DNA y
ácido ribonucleico, RNA) son polímeros formados por unida
des menores llamadas nucleótidos. Cada nucleótido consta,
a su vez, de un fosfato, una pentosa y una base orgánica.
POBLACIÓN: Dícese de un conjunto de individuos que componen una
determinada comunidad.
PROCARIOTA: Organismos celulares primitivos, como las bacterias
y algas verdeazuladas, desprovistas de núcleo. Sin embargo,
sí disponen de un área nuclear.
PROTOPLASMA: Sustancia constitutiva de las células, de consisten
cia más o menos líquida, estructura coloidal y composición
química muy compleja. Contiene gran cantidad de agua en la
que están disueltos numerosos cuerpos orgánicos y sales
inorgánicas.
RECOMBINACIÓN: Sinónimo de cruce (ver cruce).
SELECCIÓN: Mecanismo evolutivo mediante el cual, de una determina
da población sólo sobreviven aquellos individuos mejor
adaptados a su medio ambiente.
TRANSLOCACION: Anomalía cromosómica estructural por la que una
sección de un cromosoma se rompe y se fija en otro cromo
soma. El número de genes del primer cromosoma disminuye
y el del segundo aumenta.
154
VITALIDAD: Capacidad de un individuo para sobrevivir en un deter
minado medio ambiente.
155
REFERENCIAS Y BIBLIOGRAFIA
1. Leitman, G.: "Optimization Techniques with Applications to
Aerospace Systems", Academic Press, New Yor, 1962.
2. Bazaraa, S.B. & Shetty, CM.: "Nonlinear Programming. Theory
and Algorithms", John Wiley and Sons, New York, 1979.
3. Dixon, L.C.W. & Szego, G.P. (eds.): "Towards Global Optimiza
tion", North-Holland American Elsevier, 1975.
4. Dixon, L.C.W. & Szego, G.P. (eds.): "Towards Global Optimiza
tion, 2", North-Holland American Elsevier, 1978.
5. Janin, G.: "The Genetic Operator for the Solution of Optimi
sation Problems", MAO TR-3, ESOC, 1983.
6. Schwefel, H.P.: "Numerische Optimierung von Computer-Modellen-
Mittels der Evolutionsstrategie", Birkhauser Verlag, Basel,
1977.
7. Lootsma, F.A. (ed.): "Numerical Methods for Non-Linear Opti
mization", Academic Press, London, 1972.
8. Beltrami, E.J. & Indusi, J.P.: "An Adaptative Random Search
Algorithm for Constrained Minimization", IEEE, Transactions
on Computers, September, 1972.
9. Rechenberg, I.: "Evolutionsstrategie. Optimierung Technischer
Systeme nach Prinzipier der biologischen Evolution". Frie-
drich Fromman Verlag, Stuttgart, 1973.
10. Hofstadter, D.R.: "Torneos Computerizados del Dilema del Preso
que sugieren cómo evoluciona la conducta cooperativa", Te-
mas Metamágicos, Investigación y Ciencia, Julio 1983.
11. Price, W.L.: "Global Optimization by Controlled Random Search",
J.O.T.A., Vol. 40, No. 3, July 1983.
156
12. Bekey, G.A. & Ung, M.T.: "A Comparative Evaluation of Two
Global Search Algorithms", IEEE Transactions on Computers,
January 1974.
13. Borsworth, J., Foo, N. and Zeigler, B.P.: "Comparison of
Genetic Algorithms with Conjugate Gradient Methods", NASA
CR-2093, August 1972.
14. Martinez García, J.J.: "Problemas Especiales de Mecánica
del Vuelo", IUPFAN-ETSIN, Sept. 1980.
15. Ayala, F.J.: "Darwin contra las causas sobrenaturales",
Tribuna Libre, "El País", Abril 1982.
16. Wilde, D. & Beighter, C.S.: "Formulations of Optimizations",
Prentice Hall, Inc., Englewood Cliffs, New Jersey, 1967.
17. Wismer, D.A. & Chattergy, R.: "Introduction to Nonlinear Op
timization. A Problem Solving Approach", North-Holland,
New York, 1923.
18. Kusher, H.J. & Clark, D.S.: "Stochastic Approximation Methods
for Constrained and Unconstrained Systems", Springer Ver-
lag, New York, 1978.
19. Collatz, L. & Wetterling, W.: "Optimization Problems" (Ap
plied Mathematical Sciences, 17), Springer-Verlag, New
York, 1975.
20. Bellman, R.E. & Dreyfus, S.E.: "La Programmation Dynamique
et ses Applications", Dunod, Paris, 1965.
21. Stoecker, W.F.: "Design of Thermal Systems", McGraw-Hill,
1980.
22. Sóbol, I.M.: "Método de Montecarlo", Mir, Moscú, 1976.
23. Masry, S.F., Beckey, G.A. & Safford, F.B.: "A Global Optimiza
tion Algorithm Using Adaptative Random Search", Applied
Mathematics and Computations 7, 1980.
157
24. Gran, R.: "On the Convergence of Random Search Algorithms
in Continuous Time with Applications to Adaptative Control",
IEEE, Vol. SMC-3, No. 1, Jan., 1973.
25. Schumer, M.A. & Steiglitz, K.: "Adaptative Step Size Random
Search", IEEE, Vol. AC-13, No. 3, Junio, 1968.
26. Foo, N.Y. & Bosworth, J.L.: "Algebraic, Geometric and Stochas
tic Aspects of Genetic Operators", NASA CR-2099, Agosto
1972.
27. Holland, J.H.: "Genetic Algorithms and the Optimal Allocation
of Trials", SIAM J. Comp., Vol. 2, No. 2, Junio 1973.
28. Gaidosch, H.: "Optimization of Missile Trajectories by Means
of Evolution Strategy", AIAA-80-0323, 1980.
29. Bethkle, A.D., Zeigler, B.P. & Strauss, D.M.: "Convergence
Properties of Simple Genetic Algorithms", NASA TR-159, 1974.
30. Ruse, M.: "La Revolución Darwinista", Alianza Universidad,
Madrid, 1983.
31. Ford, E.B.: "Mendelismo y Evolución", Nueva Colección Labor,
Barcelona, 1973.
32. Sánchez Cascos, A.: "Manual de Genética Médica", Editorial
Científico-Médica.
33. Cerdá Olmedo, E.: "Nuestros Genes", Aula Abierta Salvat,
Barcelona, 1981.
34. Schrödinger, E.: "Mente y Materia", Cuadernos Infimos 110,
Tusquets Editores, Barcelona, 1984.
35. Landsberg, P.R.: "The Enigma of Time", Adam Hilger, Ltd.,
Bristol, 1982.
36. Gómez-Tierno, M.A.: "Solución Numérica de los Problemas de
Optimización", GMV 207/83, ETSI Aeronáuticos, UPM, 1983.
158
37. Gómez-Tierno, M.A.: "Métodos Numéricos Generales por Búsqueda
no Aleatoria Utilizados en la Resolución de los Problemas
de Optimización Paramétrica", GMV 209/83, ETSI Aeronáuticos,
UPM, 1983.