Parallélisation des métaheuristiques Séminaire LOSI – 7 mai 2010 P. Lacomme, C. Prodhon (Equipe Clermont: Duhamel, Lacomme, Equipe UTT: Prins, Prodhon) Université de Clermont-Ferrand II, LIMOS, France Université de Technologie de Troyes, LOSI, France
54
Embed
Parallélisation des métaheuristiques Séminaire LOSI – 7 mai 2010 P. Lacomme, C. Prodhon (Equipe Clermont: Duhamel, Lacomme, Equipe UTT: Prins, Prodhon)
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Parallélisation des métaheuristiquesSéminaire LOSI – 7 mai 2010
P. Lacomme, C. Prodhon(Equipe Clermont: Duhamel, Lacomme, Equipe UTT: Prins,
Prodhon)
Université de Clermont-Ferrand II, LIMOS, FranceUniversité de Technologie de Troyes, LOSI, France
2
But de l’exposé
Réflexion et travaux en cours (Troyes/Clermont) depuis 6 mois
Première étape pour la parallélisation
Etat d’avancement de nos réflexions
3
Parallélisation de métaheuristiques NVIDIA - CUDA Threads Choix
Mise en oeuvre Implémentation parallèle d’un
GRASPxELS HVRP Expérimentations numériques
Sommaire
4
Métaheuristiques parallèles
5
Quelques publicationsParallel GRASP with path-relinking for job shop scheduling R.M. Aiex, S. Binato, and M.G.C. ResendeParallel Computing, 29:393-430, 2003.
Uma investigação experimental da distribuição de probabilidade de tempo de soluçãoem heurísticas GRASP e sua aplicação na análise de implementações paralelas R.M. AiexPhD thesis, Department of Computer Science, Catholic University of Rio de Janeiro, Rio deJaneiro, Brazil, 2002.
Parallelization strategies for the metaheuristic GRASP A.C.F. AlvimMaster's thesis, Department of Computer Science, Catholic University of Rio de Janeiro, Rio deJaneiro, RJ 22453-900 Brazil, April 1998.
Load balancing in the parallelization of the metaheuristic GRASP A.C.F. Alvim and C.C. RibeiroTechnical report, Department of Computer Science, Catholic University of Rio de Janeiro, Rio de Janeiro,
RJ22453-900 Brazil, 1998.
Parallel strategies for GRASP with path-relinking R.M. Aiex and M.G.C. ResendeTechnical report, Internet and Network Systems Research Center, AT&T Labs Research, Florham Park, NJ,
2003.
6
Commentaires
Tabou parallèle Grasp parallèle etc…
Aucune métaheuristique parallèle n’est la meilleure méthode publiée
CUDA Très fort parallélisme Utilise les cartes graphiques NVIDIA Problèmes de mémoire
Parallélisation par threads Exploite le processeur central Largement répandu
9
Approches possibles (2/5)
10
Approches possibles (3/5) Transfert mémoire centrale carte très couteux. Mémoire par thread très limitée Intéressant : faible volume de données
inadapté à la RO (exemple : matrice des distances)
Raksmey Phan, « Prise en main de la technologie CUDApour la programmation sur GPGPU », Projet 3ième annéeISIMAhttp://fc.isima.fr/~phan/ProjetZZ3/TutoCuda.pdf
4 threads temps de communication nul 8 threads facteur de ralentissement de 2 16 threads facteur de ralentissement de 4 32 threads facteur de ralentissement de 8
BUS
45
Résultats numériques
46
Petites instances (1/3)
47
Petites instances (2/3)
Comparative study between total time and best time
0
200
400
600
800
1000
1200
1400
1600
1800
2000
1P 2P 4P 8P 16P 32P
Best time
Total time
48
Petites instances (3/3)
% of best solutions
0
10
20
30
40
50
60
70
80
90
100
1P 2P 4P 8P 16P 32P
49
Instances de taille moyenne (1/2)
Comparative study between the total time and the best time
0
200
400
600
800
1000
1200
1400
1600
1800
2000
1P 2P 4P 8P 16P 32P
50
Instances de taille moyenne (2/2)
% of best solutions
0,0
10,0
20,0
30,0
40,0
50,0
60,0
70,0
80,0
90,0
100,0
1P 2P 4P 8P 16P 32P
51
Tests - Conclusion
Architecture matérielle impact sur les temps de calcul
Grand intérêt de la paralélisation
Résultats intéressants qualité de résultats + convergence
52
Conclusion
53
Conclusion (1/2)
« Nos »premiers pas en méthode parallèle
Attention aux pièges
Intérêt démontré
54
Conclusion (2/2)
Alternative crédible à Cuda
Fort potentiel généralisation des architectures multi-cœurs