text
stringlengths
21
53.4k
Cette bibliothèque se décompose en deux couches logicielles, appelées RedSYM et RedCORBA 3 .
La bibliothèque RedGRID est programmé en C++ et dispose également d'une API C et Fortran, des langages très répandus dans le domaine du calcul scientifique.
RedSYM : la couche de redistribution symbolique La bibliothèque RedSYM implante le modèle de description des données et les algorithmes présentés dans ce papier.
Plus précisément, RedSYM calcule (en parallèle) la matrice de communication à partir de la description des objets complexes.
Cette bibliothèque est dite symbolique dans le sens où son interface est clairement indépen-dante d'une couche de communication particulière.
Dans RedSYM, les messages gé-nérés sont uniquement stockés de manière symbolique sous la forme d'une séquence d'intervalles d'indices désignant la liste ordonnée des éléments formant un message.
Associé au modèle de stockage d'une série de données, le message symbolique permet de reconstruire efficacement la séquence des adresses mémoire constituant le message physique.
RedCORBA : la couche de communication La bibliothèque RedCORBA implante une couche de communication au-dessus de RedSYM, basée sur la technologie CORBA.
Elle permet de coupler dynamiquement plusieurs codes parallèles (e.g.
MPI, PVM, etc.) sur un réseau hétérogène.
Elle prend en charge l'échange des descriptions entre les codes couplés, et le transfert parallèle des données d'un code (sender) à l'autre (receiver).
RedCORBA utilise une approche composant, comparable à celle mise en oeuvre dans PAWS , basée sur la notion de ports de communication et de data channel.
Par ailleurs, un proxy permet de coordonner les transferts via un système de requêtes get/put, représenté sur la .
Ce système implique une gestion centralisée des requêtes et des acquittements, alors que le transfert s'effectue toujours en point-à-point entre les ports.
Afin de traiter plus efficacement les transferts successifs, nous stockons la matrice de communication symbolique calculée par RedSYM, matrice qui est factorisée pour toutes les séries de données.
Les messages CORBA générés par RedCORBA sont également stockés sous la forme d'une séquence d'adresses mémoire.
Ainsi la matrice de communication est calculée une seule fois, lors de l'étape de connexion des codes couplés et elle est ensuite conservée durant toutes les étapes de communication.
Cette matrice devra être remise à jour uniquement dans le cas où la distribution des données venait à changer.
Le transfert des messages repose sur une stratégie zéro-copie n'imposant pas de copie des données à l'envoi.
Cependant, une copie des données s'avère nécessaire dans RedCORBA au moment de la réception.
En effet, le paradigme de communication utilisé par CORBA ne permet pas d'effectuer une réception « sur place » des données qui sont passées comme les arguments d'un appel de méthode à distance, ce qui nous impose une recopie mémoire dans RedCORBA.
Cette limitation ne remet pas en cause le choix de la technologie CORBA qui s'avère à notre sens le middleware de prédilection pour le couplage de codes assurant à la fois la portabilité, l'interopérabi-lité et la dynamicité requise 4 pour ce type d'application, ce que MPI-1 par exemple ne pourrait pas permettre.
Résultats Nous allons maintenant consacrer une section à l'évaluation des performances de la bibliothèque RedGRID et plus précisément de la couche de communication Red-CORBA.
Pour cette étude, nous supposons que le couplage est statique, dans le sens où le choix des distributions ne sont pas remis en cause au cours du temps.
Dans ce contexte, la génération des messages est une opération ponctuelle survenant à l'initialisation du couplage, alors que les transferts sont répétés continuellement, le plus souvent à chaque itération du code.
C'est pourquoi nous allons principalement étudier les temps de transfert et plus particulièrement les débits entre les codes couplés.
Nous réservons pour plus tard l'étude des performances de l'algorithme de redistribution à 4.
Connexion client/serveur des codes couplés notamment dans le contexte du pilotage.
RedGRID 449 proprement parler, étude devenant primordiale dès lors que la distribution des données est susceptible de changer fréquemment (couplage dynamique).
Dans ces expériences, nous allons évaluer le transfert pour différents objets complexes, pour différentes configurations M × N , selon les deux approches de la redistribution que nous avons présentées à la section précédente.
Nous mesurons la durée moyenne du transfert d'une série de données de type double entre deux codes parallèles (LAM/MPI) couplés avec RedCORBA, l'un jouant le rôle d'émetteur (M processeurs) et l'autre de récepteur (N processeurs).
Plus précisément, nous mesurons le débit cumulé moyen (taille total des données / temps total) obtenu après répétition de plusieurs requêtes put pour des données de taille totale variant de quelques kilo-octets à plus de 100 Mo.
Nous effectuons principalement des mesures de débits cumulés (en Mo/s), car elles permettent de mettre en évidence l'agrégation possible de la bande passante lors des flux parallèles de communication.
Les mesures de performance ont été entièrement réalisées sur un cluster Grid'5000 situé à Bordeaux, composé de 50 bi-Opterons (AMD 64 bits avec 2 Go de RAM) et interconnecté via un switch à un réseau Giga-Ethernet (bande-passante théorique à 128 Mo/s).
Nous utilisons OmniORB4, un ORB réputé pour ses bonnes performances : débit maximal mesuré sur ce réseau à 110 Mo/s (latence 107 µs) en point-à-point sur ce réseau contre 112 Mo/s pour LAM/MPI (latence 103 µs).
On peut ainsi remarquer que OmniORB4 est pratiquement aussi performant que LAM/MPI sur ce réseau, ce qui vient du fait qu'il utilise une stratégie zéro-copie à l'envoi qui le rend très efficace.
Notons toutefois que le débit maximal atteint par RedCORBA en point-à-point n'est que de 97.5 Mo/s, soit une baisse de 13 % par rapport à CORBA/OmniORB, qui est due à une recopie des données à la réception dans RedCORBA.
Résultats pour l'approche spatiale Cas des grilles structurées Nous avons choisi d'étudier le problème de la redistribution pour une grille structurée régulière (carré) 2D avec une série de données réelles associées aux noeuds de la grille.
Nous considérons deux « motifs » de redistribution : col2col et col2row.
Pour le premier motif, col2col, les deux codes possèdent une distribution bloc-colonne 1D.
Si M et N sont égaux alors les distributions sont identiques et il n'y aura donc pas de redistribution à faire (1 seul message envoyé pour chaque émetteur à son vis-à-vis).
Dans le second motif, col2row, le code émetteur possède une distribution bloc-colonne 1D et le code récepteur une distribution bloc-ligne 1D.
Nous avons choisi ce dernier motif, car il implique un schéma de communication total entre les deux codes et donc un découpage des données dans la mémoire de chaque émetteur en N messages.
Les résultats obtenus (figure 16) pour les grilles structurées sont globalement satisfaisants, car ils montrent nettement l'agrégation de la bande-passante obtenue avec RedCORBA pour les cas 4 × 4, 8 × 8 et 16 × 16.
Ces résultats sont d'autant plus satisfaisants que ces mesures prennent en compte le temps de gestion des requêtes et des acquittements de RedCORBA, ainsi que la copie à la réception des données.
Il faut noter que l'écart de débit entre RedCORBA et MPI reste toujours du même ordre de grandeur que celui mesuré en 1 × 1, c'est-à-dire d'environ −13%.
Toutefois, de manière assez surprenante on observe que RedCORBA avec un motif du type col2row obtient le plus souvent de meilleures performances qu'avec le motif a priori idéal col2col, où un seul « gros » message est reçu par chaque processeur.
Notre explication est que la réception de multiples « petits » messages en col2row s'effectue de manière concurrente dans RedCORBA (pool de threads CORBA) et ordonnée (ordonnancement de type round-robin), ce qui favorise la mise en place d'un pipeline entre la réception des données et la recopie des données précédentes.
Concernant le temps nécessaire pour générer les messages avec RedSYM & Red-CORBA (incluant l'échange des descripteur), nous constatons que celui-ci dépend du nombre total de blocs de redistribution, résultant de l'intersection des blocs appartenant aux deux distributions (généralement corrélés à M et N ).
A titre d'exemple, si l'on considère la configuration 8 × 8 pour la grille 400 × 400, le nombre de blocs de redistribution sera de 8 dans le cas col2col contre 64 blocs le cas col2row, avec un temps de redistribution de 13.0 ms dans le premier cas contre 15.0 ms dans le second.
Cas des boîtes d'atomes Nous présentons quelques résultats expérimentaux également obtenus avec l'approche spatiale pour les boîtes d'atomes (ensembles de particules), qui sont des objets complexes relativement proches.
La principale différence tient au fait que les boîtes d'atomes sont décrites à l'aide d'une distribution des éléments par bloc dans R n .
Comme le montre la figure 17, les performances dépendent directement du motif de redistribution, ce motif résultant de l'intersection des distributions choisies pour les deux codes couplés.
Nous étudions les performances pour plusieurs types de distributions : bloc-colonne 1D (col), bloc-ligne 1D (row) et un pavage de l'espace en blocs 2D (blk).
Plus précisément, la distribution blk correspond à une décomposition du domaine global 2D en M × M blocs (côté émetteur), encore raffiné en 2 × 2 sous-blocs, ce qui nous donne un pavage relativement fin du domaine : en tout 4.M 2 blocs côté émetteur et 4.N 2 blocs côté récepteur.
Lorsque les distributions sont « bien ajustées » (col2col ou blk2blk en 8 × 8, les performances sont aussi bonnes que pour les grilles structurées.
En revanche, lorsque les distributions sont « pathologiques » (col2row ou blk2blk en 8 × 7 et col2row en 8 × 8), les atomes à envoyer vers un certain destinataire doivent être extraits des blocs-source en fonction de leurs coordonnées spatiales (cf. section 4.2), ce qui induit un découpage important des données en mémoire et l'utilisation d'un cache à l'envoi dans RedCORBA (i.e. copie à l'envoi).
Ce comportement est d'autant plus critique lorsque le nombre d'atomes augmente, entraînant une chute importante des performances au delà d'un certain seuil.
Dans le contexte du pilotage, nous préférerons toujours utiliser la stratégie de placement des ensembles de particules plutôt que l'approche spatiale avec des boîtes d'atomes, car elle est plus simple à mettre en oeuvre et offre de meilleures performances.
Le temps nécessaire pour générer les messages CORBA avec RedSYM et Red-CORBA ne dépend que du nombre de processeurs M et N dans les cas simples.
En revanche dans les cas pathologiques, la génération des messages devient linéaire par rapport au nombre d'atomes (parcours des atomes pour le calcul des différents masques d'extraction).
A titre d'exemple, ce temps est d'environ 200 ms pour 100000 atomes en col2row 8 × 8 ou 8 × 7, de 50 ms en blk2blk 8 × 7 et de 10 ms col2col 8 × 8.
Résultats pour l'approche placement Dans ces expériences, nous examinons le problème de la redistribution pour les ensembles de particules et des maillages non structurés en considérant différentes configurations M × N , en comparant les stratégies de placement avec ou sans découpage.
Cas des ensembles de particules Nous allons maintenant présenter quelques résultats expérimentaux dans le cas des ensembles de particules pour les stratégies de placement avec ou sans découpage, dans les configurations 8×8 et 8×7 ( ).
Les particules sont initialement distribuées de manière équilibrée entre tous les processeurs émetteurs.
La stratégie de placement avec découpage donne des résultats identiques à la stratégie sans découpage pour des cas triviaux , mais offre de bien meilleures performances lorsque M et N sont premiers entre eux.
Dans le cas 8 × 7, le débit cumulé est même doublé, ce qui s'explique par le fait que, lors du placement sans découpage, le premier processeur côté réception se voit attribuer deux régions contre une seule pour les autres récepteurs, alors que dans la stratégie avec découpage, chaque processeur côté réception se voit attribuer la même proportion de données, d'où les meilleurs résultats observés.
Le temps nécessaire pour générer les messages CORBA avec RedSYM et Red-CORBA est indépendant de la taille des données dans le cas des ensembles de particules et ne dépend que du nombre de processeurs M et N .
Ce temps est de l'ordre de 10 ms dans les expériences précédentes.
Cas des maillages non structurés Nous reproduisons des expériences similaires dans le cas des maillages non structurés.
Il s'agit de comparer le comportement des redistributions de maillages en 8 × 8 et en 8 × 7 pour les stratégies de placement avec ou sans découpage ( ).
Le maillage considéré est une grille de quadrilatères définie comme un maillage non structuré (i.e. liste des connectivités explicite), initialement découpée en colonne sur chaque processeur côté émetteur.
Dans le cas trivial 8 × 8, le placement calculé est identique pour les deux stratégies et l'on pourrait s'attendre à obtenir d'aussi bonnes performances avec découpage que sans découpage.
La différence de performance tient au fait que nous utilisons un cache à l'envoi pour la stratégie avec découpage, car cette stratégie produit des messages naturellement très décousus, sauf dans certains cas triviaux comme celui-ci.
Le cas 8 × 7 est là pour mettre en évidence l'intérêt de la straté-gie avec découpage pour équilibrer les flux de communication et obtenir de meilleures performances.
En effet, on constate que le débit est multiplié par 1.5 par rapport à la stratégie sans découpage.
Notons que le débit cumulé n'est pas tout à fait multiplié par 2, à cause de l'utilisation d'un cache à l'envoi pour construire un message contigu.
Le temps nécessaire pour générer ces messages est très supérieur pour la stratégie avec découpage où nous avons recours à un algorithme plus complexe de partitionnement des maillages actuellement basé sur Metis, de l'ordre de 250 ms pour un maillage de 160 000 quadrilatères, contre 10 ms dans l'autre cas.
D'une manière générale, le temps de génération des messages est constant (dépendant de M et N uniquement) dans la stratégie sans découpage alors qu'il est sur-linéaire par rapport au nombre de cellules du maillage dans la stratégie avec découpage.
Conclusion Dans cet article, nous nous sommes écartés des modèles de redistribution classiques en bloc-cyclique pour nous intéresser à une approche plus générique pour la redistribution d'objets complexes, tels que les grilles structurées, les ensembles de particules ou les maillages non structurés, des objets très fréquents dans les codes de simulations numériques.
Ce modèle de description permet de former une vision cohé-rente des données telles qu'elles sont distribuées sur chaque code et de construire des algorithmes de redistribution de « haut-niveau ».
Sur la base de ce modèle, nous avons présenté deux approches de la redistribution : l'approche spatiale et l'approche placement de la redistribution.
Si l'approche spatiale s'applique typiquement au contexte du couplage de codes, l'approche placement (avec ou sans découpage) se trouve particulièrement bien adaptée dans le contexte du pilotage M × N .
Les résultats expérimen-taux ont permis de valider nos algorithmes en mettant en évidence qu'il était possible d'agréger la bande-passante même pour des schémas de communication complexes afin de réduire le temps total de transfert.
Pour conclure, notons que ces algorithmes sont déjà utilisés dans l'environnement de pilotage EPSN, grâce à la bibliothèque Red-GRID, pour visualiser en temps réel et en parallèle les résultats intermédiaires d'une simulation numérique elle-même parallèle (www.labri.fr/epsn).
Nos perspectives de recherche s'orientent actuellement selon trois axes principaux : (1) tout d'abord, l'étude des temps de génération des messages, étude devenant primordiale dès lors que la distribution des données est susceptible de changer dynamiquement ; (2) ensuite, la prise en compte de structures de données hiérarchiques (grilles multiniveaux, Adaptative Mesh Refinment) ; (3) et finalement, le développe-ment d'une nouvelle couche de communication plus performante basée sur les possibilités de MPI-2 (Message-Passing Interface