Alors que les superordinateurs deviennent toujours plus puissants, ils sont également plus vulnérables aux défaillances, et cela à cause de l'augmentation du nombre de leurs composants. Lors de la récente conférence SC12 (http://sc12.supercomputing.org/) qui s'est tenue la semaine dernière à Salt Lake City, des chercheurs ont proposé des solutions pour remédier à ce problème qui risque s'amplifier.
Certains systèmes de calcul haute performance (HPC) actuels peuvent comporter jusqu'à 100 000 noeuds et plus, chaque noeud étant lui-même la somme de plusieurs composants mémoires, processeurs, bus et d'autres circuits. « Statistiquement parlant, tous ces composants sont susceptibles de tomber en panne à un moment ou un autre, et tous les calculs peuvent être interrompus si cela arrive », a déclaré David Fiala, étudiant en doctorat à l'Université de l'État de Caroline du Nord, présent à la conférence. Le problème n'est pas nouveau, bien sûr. Quand le superordinateur 600 noeuds ASCI (Accelerated Strategic Computing Initiative) White du Lawrence Livermore National Laboratory a été mis en service en 2001, le temps moyen entre deux pannes (MTBF) dues à des défaillances de composants était de cinq heures seulement. « Par la suite, grâce à de meilleurs réglages, ce temps MTBF moyen est passé à 55 heures », a ajouté le chercheur.
Avec l'exascale les pannes vont aussi se multiplier
Mais, plus le nombre de noeuds augmente dans le supercalculateur, plus le problème grandit. « Nous devons faire quelque chose pour cela, car il ne fait pas de doute que le problème va s'aggraver quand nous passerons à l'exascale », a ajouté David Fiala. On pense que les superordinateurs de la prochaine décennie seront capables de délivrer 10 fois plus de puissance de calcul que les supercalculateurs actuels. « Les techniques disponibles pour faire face à une défaillance du système ne sont pas forcément bien adaptées », a ajouté le doctorant chercheur. Par exemple, le point de reprise du traitement, c'est à dire le moment où un programme en cours est temporairement arrêté et que son état est sauvegardé sur le disque. Si le programme se plante, le système est capable de relancer la tâche depuis le dernier point de reprise enregistré.
Selon David Fiala, « le problème avec les points de reprise, c'est que le temps système nécessaire pour effectuer le point de reprise augmente avec le nombre de noeuds et croît de façon exponentielle ». Par exemple, dans un supercalculateur de 100 000 noeuds, seuls 35 % de son activité environ est mobilisée pour les tâches. « Le reste est affecté aux points de reprise et, si un système tombe en panne, aux opérations de récupération », a estimé le doctorant. « Un système exascale a besoin d'un nombre beaucoup plus élevé de composants, un million et plus, si bien que la fiabilité du système devrait être améliorée d'un facteur 100 pour maintenir un MTBF équivalant à celui des superordinateurs actuels », a expliqué David Fiala.
Des copies travaillant en parallèle pour comparer les réponses
Ce dernier a présenté une technologie qu'il a développée avec d'autres collègues chercheurs, laquelle pourrait aider à améliorer la fiabilité. Celle-ci s'attaque au problème de la corruption invisible des données, à savoir que les systèmes commettent des erreurs d'écriture de données sur un disque sans qu'elles soient détectées. Fondamentalement, l'approche des chercheurs consiste à exécuter plusieurs copies, ou «clones» d'un programme, en même temps, et de comparer les réponses. Le logiciel, appelé RedMPI, tourne en même temps qu'une bibliothèque nommée Message Passing Interface (MPI), qui répartit l'exécution des applications sur plusieurs serveurs, ce qui revient à exécuter différentes portions du programme en parallèle.
RedMPI intercepte et copie chaque message MPI envoyé par une application et transmets une copie du message au clone (ou aux clones) du programme. Si les différents clones donnent des réponses différentes, les résultats peuvent être recalculés à la volée, ce qui permet de gagner du temps et des ressources, plutôt que de faire exécuter à nouveau la totalité du calcul. «Ça ne coûte pas cher d'implémenter la redondance. Le nombre d'accès processeurs est peut-être élevé, mais il évite la réécriture à partir du point de reprise », a déclaré le chercheur. «L'alternative c'est, évidemment, de relancer simplement la tâche jusqu'à ce que l'on estime avoir la bonne réponse ».
Pannes récurrentes : les supercalculateurs confrontés aux problèmes de résilience
0
Réaction
Dans les supercalculateurs, la probabilité des défaillances augmente à mesure que le nombre de composants s'accroit. Des chercheurs travaillent sur des techniques d'analyse des logs pour prédire les défaillances et accélérer les calculs.
Newsletter LMI
Recevez notre newsletter comme plus de 50000 abonnés
Commentaire