Top Banner
1 Optimisation multidisciplinaire avec modèles réduits et calcul parallèle Manyu Xiao,Piotr Breitkopf, Rajan Filomeno Coelho, C. Knopf-Lenoir, P. Villon Laboratoire de Mécanique Roberval, UMR 6253, UTC – CNRS Université de Technologie de Compiègne [email protected] ESI50, 8 novembre 2011
73

Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Sep 16, 2018

Download

Documents

dinhnhi
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Page 1: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

1

Optimisation multidisciplinaire avec modèles réduits et calcul parallèle

Manyu Xiao,Piotr Breitkopf, Rajan Filomeno Coelho, C. Knopf-Lenoir, P. Villon

Laboratoire de Mécanique Roberval, UMR 6253,UTC – CNRS Université de Technologie de Compiègne

[email protected]

ESI50, 8 novembre 2011

Page 2: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Contenu de la présentation

Contexte général de l’OMD

Analyse des stratégies de calcul parallèle

Proposition des modèles réduits

Optimisation en mécanique - Applications industrielles

Conclusions et perspectives

2

Page 3: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Contenu de la présentation

Contexte général de l’OMD

Analyse des stratégies de calcul parallèle

Proposition des modèles réduits

Optimisation en mécanique - Applications industrielles

Conclusions et perspectives

3

Page 4: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

“ Générale ” du problème d’optimisation

Formulation :

Procedure de l’optimisation:

Méthode numérique:

- Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ∇g)

- Méthodes globaux évolutionnaires (x est continue or discrète)

4

ublb

j

i

xxx

Jjxg

Iixh

xJn

≤≤•=≤•

==•

ℜ∈

,,1,0)(

,,1,0)(

:àsoumis

)(minx

L

L

optimizeroptimizer simulationsimulation

J(x), h(x), g(x) (∇J, ∇h, ∇g)

x

Page 5: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Motivations de mon recherche - OMD project

• Constat d’une trop grande distance entre la modélisation numérique en SPI (EFs …) et l’optimisation (mathématique).

vs. x1

x3

x2

x100

simulation Optimisation

OMD : Optimisation MultiDisciplinaire, cherche à obtenir l’optimum incorporant les effets de chacune des disciplines simultanément

5

Page 6: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Analyse des causes

• Temps de calcul des simulations est trop long pour les optimiseurs mathématiques.

Optimisation en présence des incertitudes

min poids (M)

• soumis à : Coeff. de portance (CL) Coeff. de traînée (CD)

Déformation maximale (umax) Contrainte de von Mises (σσσσ)

aérodynamique

structure

5 objectifs

Simulation prohibitive

Compatibilité de la géométrie

Différents niveaux de modèles

Couplages entre disciplines

Aspect multiobjectif

6

Page 7: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Analyse des causes

• Temps de calcul des simulations est trop long pour les optimiseurs mathématiques.

Optimisation en présence des incertitudes

pression = fct(formeinitiale, déformation de

l’aile )FLUIDE

déplacements, contraintes= fct(pression)

STRUCTURE

2 disciplines : fluide et structure

Simulation prohibitive

Compatibilité de la géométrie

Différents niveaux de modèles

Couplages entre disciplines

Aspect multiobjectif

7

Page 8: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Analyse des causes

• Temps de calcul des simulations est trop long pour les optimiseurs mathématiques.

Optimisation en présence des incertitudes

compatibilité de maillages

stabilité de la chaîne CAO

transport des champs

Maillages initiauxMaillages déformés

Simulation prohibitive

Compatibilité de la géométrie

Différents niveaux de modèles

Couplages entre disciplines

Aspect multiobjectif

8

Page 9: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Analyse des causes

• Temps de calcul des simulations est trop long pour les optimiseurs mathématiques.

Optimisation en présence des incertitudes

Compatibilité de la géométrie

Différents niveaux de modèles

Couplages entre disciplines

Aspect multiobjectif

CFD

la simulation ‘haute fidélité’avec MEF,MVF,MF, etc ;

nombreuses simulations de chaque discipline

un grand nombre de simulations dans le processus d’optimisation ;

Simulation prohibitive

9

Page 10: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Analyse des causes

• Temps de calcul des simulations est trop long pour les optimiseurs mathématiques.

Optimisation en présence des incertitudes

Compatibilité de la géométrie

Simulation prohibitive

Couplages entre disciplines

Aspect multiobjectif

Différents niveaux de modèles

1 - fluide 2 - structure

1

2

3

niveaux

= +α

fin

gros

Disciplines

))((11 yvJJ = ))((22 yuJJ =

)(~~~~

11 yJJ = )(~~~~

22 yJJ =

))(~(~

22 yuJJ =))(~(~~

11 yvJJ =

10

Page 11: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Analyse des causes

• Temps de calcul des simulations est trop long pour les optimiseurs mathématiques.

Simulation prohibitive

Compatibilité de la géométrie

Différents niveaux de modèles

Couplages entre disciplines

Aspect multiobjectif

Optimisation en présence des incertitudes

11

Page 12: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Contenu de la présentation

Contexte général de l’OMD

Analyse des stratégies de calcul parallèle

Proposition des modèles réduits

Optimisation en mécanique - Applications industrielles

Conclusions et perspectives

12

Page 13: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Stratégies actuelles –réduction du coût de calcul dans l’OMD

13

calcul parallèle

OPTI

SIMULATIONShaute fidélité

Variables de conception y

Réponses J(objectifs, contraintes)

(variables de conception) (fonctions objectifs)

où y(i) = [ y1(i) … yq

(i) ]T où J = [ f1 … fr ]T

y(1)

y(M)

modèle « haute fidélité »

(éléments finis, etc.)…

J(1)

J(M)

…p(1)

p(M)

(clichés du champ vectoriel )

post-traitement

où p (i) = [ p1(i) … pN

(i) ]T

calculs indépendants

Page 14: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

analyse d’un environnement de calcul parallèle dans le contexte de l’OMD

Méthodes numériques

Méthodes locales à base de gradient(Quasi Newton/Newton )

Méthodes évolutionnaires(SOGA/MOGA)

Algorithme parallèle à gros grain

14

MatérielMémoire partagée

Mémoire distribuée

DAKOTA ( plate-forme parallèle)

Page 15: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Catégories de parallélisme

• le parallélisme à grain fin [ELD 98].Exemple: - Elément finis pour calculer en parallèle Ku=F

• le parallélisme à gros grain [ELD 98].

avantage: - une communication très faible entre processeurs (peu de perte en efficacité )

Inconvénients: - souvent pas assez de calculs « séparables » à chaque cycle d’algorithme

- Evaluation du gradient par différences finies -

Exemple: Algo. au gradient

)( )1(xf )( 2)1( xxf ∆+)( 1

)1( xxf ∆+ …

15

Page 16: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Environnement de calcul en parallèle à l’UTC

(Mémoire distribuée) (Mémoire partagée)

maître

SlaveSlave Slave

Peer

Peer Peer

Architecture PILCAD Architecture SCALAR

16

Page 17: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Exemple d’application : aile d’avion 2D

17

• Définitions des fonctions objectifs et contraintes• paramétrisation de la forme• simulation numérique sur la fluide• simulation numérique sur la structure• Analyses disciplinaire (MDA)• Optimisation

E. Lefrançois (Mecagora)

Page 18: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Définitions des fonctions objectifs et contraintes

18

supinf

0

0

0

0

02.1

,02.1

02.1)(

0)(8.0

xxx

x

x

≤≤•≤−•≤−•<−•<−•

maxmax

maxmax

DD

LL

dd

CC

CC

σσσσσσσσ

Min M(x) (masse)

soumis à :

• Optimisation mono-objectifTrouver l’optimal forme,en minimisant la masse

avec quatrecontraintes

• Optimisation multi-objectif (critères)Trouver l’optimal forme en minimisant la masse et la contrainte

avec trois contraintes

supinf

0maxmax

0DD

0

02.1

02.1)(

0)(8.0

xxx

x

≤≤•≤−•

≤−•

<−•

dd

CxC

CC LL

soumis à :

)(),(min xxM σ

Page 19: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

• Optimalité au sens de Pareto :

min f1min f2

J1

J2

Pareto set

Comme il n’est pas possible de trouver une solution qui minimise ces deux objectifs simultanément, il faudra choisir parmi l'ensemble des meilleurs compromis, qui constituent ce que l'on appelle le front de Pareto

10

,)1( 21

≤≤−+=

r

frff

Solution d’optimisation multicritère

19

Page 20: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Paramétrisation : comment changer la géométrie du profil ?

20

Page 21: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

-0.020.00.0

0.00.020.02

vinfvsupv

1v 2v 3v

Les variables de conception et valeurs initiales

),,( 321 vvv=xsup11

inf1 vvv ≤≤

sup22

inf2 vvv ≤≤

sup33

inf3 vvv ≤≤

J0 = 1.213799617P0 = 0.7998238372T0 = 12.883999579αααα= 5ππππ/180

extrados

intrados

bord de fuite

21

Page 22: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Comment calculer les grandeurs J, CL , CD ?

• Calculer l’écoulement autour de l’aile-champ de vitessev

αααα

vrel

v ?v ?v ?v ?

22

Page 23: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

incompressibiliténon visqueux

ΔΔΔΔψψψψ=0 ΨΨΨΨElément finisForme faible

xv

yu

∂∂−=

∂∂= ψψ

,

),( vu=v

ΨΨΨΨ1 ΨΨΨΨ2 ΨΨΨΨ= ΨΨΨΨ1+ αΨαΨαΨαΨ2

C.l. Horizontal C.l. Circulation physiquev

coefficient de pondérationde Kutta-Joukowski

• Calculer l’écoulement autour de l’aile- champ de vitessev

On pose ψψψψ fonction de courant avec

23

Page 24: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

2

0

25.0

)()(

rel

d

rel

profil

relL

profil

dT

T

TC

dsP

l

PC

dsshJ

v

vtv

v

x

⋅=

=

⋅−=

=

=

ρ

ρ

ρ

ρρ : masse volumique (constante);

relv : vitesse relative (constante);

v : vitesse du profil de l’aile;

,)min()max( xxl −=.)min()max( yyd −=

)(sh : épaisseur(constante);

• Post-traitement

24

Page 25: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

• Détermination des pressionspar la relation de Bernoulli :

25

Page 26: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Calcul structure - déplacement

• Suppose l’extrados et l’intrados de l’aile constitués de poutres et relies à2 fixations par l’intermédiaire de barres (‘’ressorts)• Materiau élastique linéaire, mais élément de poutre non linéaire• 6 d.d.l par élément (déplacement suivant x et y + rotation pour chaque noeud)• Résolution du système par Newton-Raphson standard

poutresbarres

fixations

26

Page 27: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Analyse Multidisciplinaire – Couplage entre fluide et structure

Répétition du cycle jusqu’à convergence

ver un point fixe

Le transfert des champs complets sur pressions et des déplacements

pressions

déplacements

27

Page 28: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Stratégies MDO - classification

28

Page 29: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Optimisation –mono-niveau (stratégie A-i-O)

29

Page 30: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Résultats numériques

• Comparaison avec les deux méthodes (Quai-Newton, SOGA)

• Comparaison les performances avec différents matériaux parallèles(PILCAD/SCALAR/MATRICS) et le même méthode local a base gradient (Quai-Newton)

Performance de calcul parallèle (deux critères)

Speed-up relatif S= T1/TP

Efficacité relative E= S/P

30

Page 31: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Analyse de l’environnement de calcul parallèle

31

SOGA : Population initiale : 100 ; Nombre de générations : 20

Temps de calcul (T) Speed-up relatif (S) Efficacité relative (E)

Conclusions :- les méthodes locales, Nprocs est limité par Nvars. (dans cet exemple : 4 procs, 3 vars)- les méthodes globales, sont mieux adaptés avec un grand Nprocs, mais le temps decalcul est prohibitif, et efficacité diminue rapidement.

0.3508

0.1585

6h30

1h

?

Page 32: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

32

32 tâches 8 processeurs

Bonne efficacité

16 processeurs efficacité diminuée à

chargés

indisponible

Analyse de l’environnement de calcul parallèle (SPMD)

0.6788

0.3508

Page 33: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Les idées :Diminuer la taille des tâches

Augmenter le nombre de tâches

Analyse de l’environnement de calcul parallèle (SPMD)

33

32 tâches

Bonne efficacité

SIMULATIONS ‘haute fidélité’

16 processeurs

compatible avec la disponibilité

Page 34: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Conclusions locaux

• Calcul parallèle peut permettre de diminuer le temps de calcul

• Méthodes globales, sont mieux adaptés avec un grand Nprocs, mais le temps de calcul est prohibitif.

• Modèles réduits peuvent réduire le volume de calcul, le chargement devient équilibré.

Avantages

Modèles réduits

SIMULATIONS ‘haute fidélité’

Calcul parallèleinefficace

calcul plus rapide

mieux adapté au calcul parallèle

Page 35: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Contribusion scientifique de ma recherche

35

1. Parallel computing …

2. Approximate models

processors

…SIMULATION ‘haut fidélité’

load

- reducing the volume of calculation

- reducing the size of simulation- equilibrium of load- reduce the volume of communication between discipline

Page 36: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Contenu de la présentation

Contexte général de l’OMD

Analyse des stratégies de calcul parallèle

Proposition des modèles réduits

Optimisation en mécanique - Applications industrielles

Conclusions et perspectives

36

Page 37: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Stratégies de réduction du coût de calcul

37

métamodèles généralistes Réduction de modèles (considère physique)

non intrusive [FIL 07, 08]

modèles approchés ou réduits

y Japprox(y) y J (papprox(y))papprox

PRSM [GIU 98]

MLS[VIL 92]

Krigeage[JON 01]

Réseaux de neurones artificiels[DRE 04]

(RBF)[GUT 01]

SVM [SAM 09]

Subspacemethod

(Krylov)

POD [BER 93]

intrusive [DEV 09]

Page 38: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Plan experiences

• Objectif :

– utiliser des stratégies permettant d’obtenir le plus d’informations possible sur l’ensemble de l’espace de conception pour un nombre restreint d’expérimentations

• Méthodes :

– Plans factoriels

– Plan hypercub Latin (LHS, Latin Hypercube Sampling)

(variables de conception) (fonctions objectifs)

où x(i) = [ x1(i) … xq

(i) ]T où J = [ f1 … fr ]T

x(1)

x(M)

modèle « haute fidélité »

(éléments finis, etc.)…

J(1)

J(M)

…p(1)

p(M)

(clichés du champ vectoriel )

post-traitement

où p (i) = [ p1(i) … pN

(i) ]T

38

Page 39: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Plan experiences

• Plans factoriels– Complets: toutes les combinaisons des niveaux de facteurs sont complets

– Fractionnaires: tous les niveaux sont présents, mais sanstoutes les combinaisons

– Remarques:• Le nombre de points croit très rapidement avec le nombre de facteurs et de niveaux

• Exemple : 10 facteurs, 6 niveaux par facteur = 106 =1,000,000 points !

39

Page 40: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Plan experiences

• Plans hypercubes latins (LHS)– Bien adaptés aux cas ou le nombre de variables

– Idée : remplir de manière homogène l’espace de conception.• Nombre de points total N du plan d’expériences

: libre de choix par l’expérimentateur

• Découpage de chaque domaine de variation

pour chaque xi in N parties

• chaque ‘zone découpée’ contient un et un seul

point, aléatoirement placé dans la zone

Exemple: Deux variables

x1, x2(4 points total)

x1

x2

40

Page 41: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Plan d’expériences - exemple

41

Page 42: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Surfaces de réponse

• Utiliser les informations issues d’un plan d’expériences de simulations

numériques pour créer un modèle approché liant directement les réponse aux des variables de conception

• A partir d’un ensemble du plan d’expériences (xi,fi), trouver une approximation telle que )(

~xf

(xi,fi)

ii fxf →)(~

)(~

xfx →

42

Page 43: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Surfaces de réponse -moindre carrés mobiles

• Moindre carrés mobiles (MLS ou approximation diffuse) :

– une approximation est choisi comme une combinaison linéaire des termes polynomiaux de la base

– Les coefficients sont obtenue en minimisant les erreurs d’approximation en ensemble de points connus xi par une norme L2 discrète pondérée

– wi(xi,x) est la fonction de pondération dépendant certaine “distance” entrexi etx.

ap ⋅=+++= Τ2210 )()(

~xxaxaaxf L

( )∑=

−==M

iiii

opt faxxwaJa1

2Τ)()(

2

1)(min p

)()(

swr

xxdistww ref

irefi =

−=

><<+−=1,0

10,231 32

s

sss

x

xi

x1 x2

x3

x1 x3

x2

r

r is the radius of Influence zone

Fonction de pondération

43

Page 44: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Méthode Krigeage

• Le krigeage est proposé par Krige et developé par Matheron

– Le krigeage est une méthode d'interpolation spatiale

– Explication: DACE [Lophavenet al., 2002]

– URL of DACE: http://www2.imm.dtu.dk/~hbn/dace/

paramètres X kriging

– Model: )(),( xzxy += βF

ββββ .)()(...)(),( 11T

pp xfxfxfx =++=F

(1 x p) (p x 1)

regressionparameters

stochastic process with hypothesis on the correlationC[z(x),z(w)], la variance en fonction de la distance entre

données, les moyennes sont identiques

f~

- le krigeage est le meilleur prédicteur linéaire non-biaisé

44

Page 45: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Stratégies de réduction du coût de calcul

45

métamodèles généralistes Réduction de modèles (considère physique)

non intrusive [FIL 07, 08]

modèles approchés ou réduits

y Japprox(y) y J (papprox(y))papprox

PRSM [GIU 98]

MLS[VIL 92]

Krigeage[JON 01]

Réseaux de neurones artificiels[DRE 04]

(RBF)[GUT 01]

SVM [SAM 09]

Subspacemethod

(Krylov)

POD [BER 93]

intrusive [DEV 09]

Page 46: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

• troncature de la base • choisir m par :

Décomposition aux valeurs propres (POD)

46

=

=−=M

i

i

m

i

i

error

λ

λ

1

2

1

2

1εεεε

,,, )()1( Mpp L

∑∑=

Τ

=

−−==M

i

iiM

i

i

M 1

)()(

1

)( ))((,1

ppppCpp vecteurs propres Mϕϕϕϕϕϕϕϕ ,,1 L=Φ

>=< mkk

,)()( ,Φpαααα

m M

error

modesλi : valeurs propres de la matrice de covariance C

mm ϕϕϕϕϕϕϕϕ ,,1, L=Φ

)(,α~ )(

1

)()( Mmkm

ii

ki

k <<+=+= ∑=

Φαppp ϕϕϕϕ

clichés

représenter un clichés avec une base réduite

Troncature de la base

M – le nombre de clichés

calcul de la base et des coefficients

Page 47: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Réduction de modèles bi-niveau

représenter le champ vectoriel en fonction d’une base réduite

approcher les coefficients par surface de réponse

calculer la (les) fonction(s) objectifs et fonctions limitation

47

)(,~

1

Mmα

m

i

ii <<+= ∑=

ϕϕϕϕpp

( )

( )

)()(1

)1()1(1

,,

,,

mM

m

M

αα

αα

L

M

L

))(α~(~(JJ yp≈

)(~

)(~

)(

)1(

y

y

α

Msurface de réponse

Page 48: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Réduction de modèles bi-niveau par POD

DOE snapshots

48

)()2()1(

)(2

)2(2

)1(2

)(1

)2(1

)1(1

Mmmm

M

M

ααα

ααα

ααα

L

MOMM

L

L

Approximation diffuse, krigeage, etc.

)(α~

)(α~)(α~

2

1

y

y

y

m

M

niveau 1 - POD

niveau 2 – approximation des coefficients

POD

Mkmkk ,,1,, ,

)()( L=>=< Φpαααα

∑=

+=m

iii

POD α

1

)(~)( ϕϕϕϕypypyReprésenter le champ approché

Page 49: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

les grandeurs globales ne sont pas conservés avec restreint m modes (m<< M)

Deux stratégies améliorées

CPOD1: améliorer coefficients αααα(k) by γγγγ(k)

CPOD2: améliorer modes ΦΦΦΦ by ΨΨΨΨ

Un inconvénient de la POD

49

( ) ( ))()(~ kk JJ pp ≠

)(,

1

)()(~ km

m

ii

ki

kγΦppp +=ϕγ+= ∑

=

,~)(

)()(2 ΩΩΩΩL

kkerror pp −=ε

Page 50: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

50

objectif- garantir la conservation des grandeurs globales

démarche- la même base POD, ΦΦΦΦCPOD= ΦΦΦΦPOD ;- nombre de modes m fixé ;

différence par rapport à la POD- αααα(k) remplacés par γγγγ(k), γγγγ(k) = (γ1

(k) … γm(k) )Τ, k= 1, … , M

Réduction de modèles par CPOD1

• CPOD1(Constrained Proper Orthogonal Decomposition):

),,1,(,1

)()( MkMmm

ii

ki

k POD1,CL=<<γ+= ∑

=

φp p

pγΦp

pp Φ

===+

−=γ=

ricJJàsoumis ik

ik

mi

L

kkCPODk

,,1,)()(:

Argmin

)()(,

)(

)()(,1

const

)(2

L

ΩΩΩΩ

[Xiao et al., 2009]

Page 51: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

51

Algorithme CPOD1

L L L L (γγγγ(k), λλλλ) ( )cp(Wpp −+⋅⋅+−= ))(,

TT)(

)()(,2

kmkL

kkCPOD γγγγΦΦΦΦλλλλΩΩΩΩ

0000λλλλΦΦΦΦΦΦΦΦγγγγΦΦΦΦΦΦΦΦγγγγ

=+−−=∂

∂km

kkm

kmkmk

WppMM Τ

,)(Τ

,)(

,)()(

L

( ) 0)(,

Τ =−+⋅=∂∂

cγΦpW kmkλλλλ

L

−=

pWc

ppM

OW

WM

Τ

)(Τ

,)(

Τ

,,Τ

, )(

k

kkm

k

mk

kmmkm ΦΦΦΦ

λλλλ

γγγγ

ΦΦΦΦ

ΦΦΦΦΦΦΦΦΦΦΦΦ

Fonction lagrangienne

conditions d’optimalité

m+r équations

Si le maillage ne varie pas,la matrice indépendante

de k=1,...,M

M problèmes l’optimisation pour calculer les coefficients γγγγ

k= 1, … , M

k= 1, … , M

Page 52: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

52

plan d’expériences :

métamodèle (Approximation Diffuse, Krigeage,…) associant γγγγ(y) aux y :

pour un point y arbitraire :

Procédure de réduction de modèles par CPOD1

miypMkypyy iM

iim

kN

kkkl

kk ,,1,),,(,,,1,),,(),,( )()(1

)(,

)()(1

)()()(1

)( LLLLL ==→==→= ΤΤΤΤΤΤΤΤΤΤΤΤ γγγγΦΦΦΦpy

Page 53: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

53

CPOD1 – avantages et inconvénients

• avantages– préservation des grandeurs globales ;

• si les relations sont linéaires, calcul est explicite

– bons résultats sur les cas test réalisés

• inconvénients– l’existence de la solution non démontrée

– la méthode modifie les coefficients, mais garde la même base– méthode adaptée uniquement à l’approche non-intrusive

• idée : CPOD2– modifier la base de modes

Page 54: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

54

Formulation :

Réduction de modèles par CPOD2

),,1,(,)(

1

)( MkMmα km

ii

ki

)k( POD2,C L=<<+=+= ∑=

Ψαpp p ψψψψ

pWpW ΤΤΤΤΤΤΤΤ =CPOD2

Si les contraintes sont linéaires

MkriJJ ki

kCPOD2i ,,1;,,1,)()( )()(, LL === pp

( )

−= ∑==

M

kL

kkCPODArgmin1

)()()(,2

2 ΩΩΩΩΤΤΤΤppΨ

IΨΨ

soumis à :

[Xiao et al., 2011]

Page 55: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

55

Algorithme CPOD2

DOEclichés p

construction de W

QR (W)

ModesΨΨΨΨ

pCPOD2

ββββ21 ,, QψψQΨ ==

MkM

M

k

k ,,1,1

1

)( L==→ ∑=

pp

[ ] 111

21 RQO

RQQQRW =

==

pWpW ΤΤΤΤΤΤΤΤ =CPOD2

)( )()( ppΨΨp p −+= kk POD2,C ΤΤΤΤ

Coefficients αααα(k)

ΤΤΤΤΤΤΤΤ ),,(),,( )()(1

)()()(1

)( kN

kkkl

kk ypyy LL =→= py

Page 56: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Contenu de la présentation

Contexte général de l’OMD

Analyse des stratégies de calcul parallèle

Proposition des modèles réduits

Optimisation en mécanique - Applications industrielles

Conclusions et perspectives

56

Page 57: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

57

Présentation du cas test

But : développer des moteurs performants et respectueux de l’environnement.=> étude d’optimisation de la forme d’un conduit d’admission en fonction des grandeurs caractérisant l’écoulement :

- la vorticité T →→→→ liée à la réduction des émissions polluantes.- le débit Q →→→→ lié à la puissance du moteur.

Conduit d’admission

Cylindre

Le conduit est paramétré par 6 variables de conception géométriques influençant directement l’écoulement du mélange air-combustible dans le cylindre.

1

2

3

4

6

5

1

2

3

4

6

5

6 variables(y1,…, y6)T

Page 58: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Simulation numérique « haute fidélité »

Comment calculer les réponses T (tumble) et Q (débit) ?- T et Q dépendent de la composante z du champ de vitesses dans le cylindre- la méthode des volumes finis est utilisée pour la résolution des équations de Navier-Stokes – logiciel StarCD

- en pratique, une chaîne de simulations a été développée par Renault :

Définition d’une zone d’intérêt

Interpolation des vitesses sur une

grille fixe

Réponses

T et Q

paramètres y CAO

Génération du maillage fluide

Génération de la géométrie

Intégration

CFD (Star-CD)

58

dSvQ

dvdT

S

z

z

=

= ΩΩ

)(x

Post-traitement

Page 59: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Front de Pareto

y = y1,…,y6

J = T, Qy = y1,…,y6

plan factoriel hypercube latin

J = T, Q

Analyse du plan d’expériences

Valeurs des variables de conception sur le front de Pareto

• 64 points d’un plan factoriel • 100 points de l’hypercube latin• seuls 146 points valables

• les points du front de Pareto se trouvent sur les bornes

des variables de conception

59

Page 60: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Deux stratégies de réduction de modèle

• méthode d’optimisation stochastique

– difficultés

• le temps d’une simulation : 2 heures

• les codes de calcul sont installés sur des machines différentes

• la chaîne de calcul n’est pas stable à 100%

• deux modèles approchés

– approximation directe des T (y) et Q(y)

• krigeage (toolkit DACE, Scilab/Matlab)

– modèle réduit POD pour le champ de vitesses

• krigeage des coefficients POD

• intégration du champ approchéT(v(y)), Q(v(y))

– amélioration du modèle POD par CPOD1 et CPOD2

• optimisation avec le modèle approché

• validation avec le modèle fin

• enrichissement du modèle approché

60

Page 61: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Modèle réduit bi-niveau : POD + krigeage

• krigeage direct

• krigeage + POD

• analyse du plan d’expériences

PODKrigeageαααα,p

POD, approx(y)POD,approx

1

m

z i ii

v ϕα=

+∑T approx,POD,

Q approx,PODy

Krigeagey T approx,direct, Q approx,direct

61

Page 62: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Optimisation multicritère avec modèle réduit

• Algorithme MOGA (MultiObjective Genetic Algorithm)

• environnement DAKOTA (Design Analysis Kit for Optimization and Terascale Applications), Sandia Labs, calcul parallèle

• sélection basée sur le rang de la solution

62

Page 63: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

OPTI (MOGA)

Approximation(Krigeage/POD/CPOD1/CPOD2)

y = (y1,...,y6)

Les paramètres de MOGA et du Krigeage

Plan d’expériences(146 clichés)

T, Q

Optimiseur(MOGA)

Nombre d’itérations 50

Taille de la population initiale

250(146 points du plan d’expériences

+ 104 points aléatoires)

Krigeage(DACE)

Corrélation Gaussienne

Régression Polynôme d'ordre 0

Processus d’optimisation

63

DAKOTA(plate-forme

parallèle)

Toolkit DACE

Page 64: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

MOGA : itération 1

64

Page 65: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

MOGA : Itération 5

65

Page 66: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

MOGA : Itération 10

66

Page 67: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

MOGA : Itération 15

67

Page 68: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

MOGA : Itération 25

68

Page 69: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

MOGA : Itération 50

69

Page 70: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Optimisation avec modèle bi-niveau

• krigeage direct– front de Pareto trop « optimiste »

• krigeage + CPOD– solution non « Pareto-optimale »

70

Page 71: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Optimisation avec modèle bi-niveau

• Diffuse + CPOD1

• Diffuse + CPOD2– Front de Pareto raisonnable

Data inital

CPOD1 CPOD2

[Xiao et al 2009] [Xiao et al

2011]

coïncidents

71

Page 72: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Variation des paramètres du krigeage directet Diffuse-CPOD1/CPOD2– x

krigeage direct Diffuse-CPOD1/CPOD2

On a trouvé des points dominants à l’intérieur du domaine.Mais, pour krigeage direct, il y a quelques variables de conception qui se trouvent encore sur les bornes. Par exemple : angle du conduit y6

72

Plan d’expériences

Page 73: Optimisation multidisciplinaire avec modèles réduits et ... · - Méthodes locaux à base de gradient (fonction continue, ∇J, ∇h, ... • Constat d’une trop grande distance

Synthèse

• Démonstration du contexte général de l’optimisation multidisciplinaire (MDO)– L’élaboration d’un cas test de l’aile 2D faisant intervenir 2 disciplines (fluide et

structure)

• Stratégies d’optimisation avec calcul parallèle et modèles approches– Analyse d’un environnement de calcul parallèle dans le contexte OMD

– Bi-niveau model réductions en combinant les méthodes de surfaces de réponses et méta-modèle (POD)

– proposé deux originaux modèles réduits : CPOD1/CPOD2

• Applications industrielles : optimisation de forme dans un conduit d’admission

73