Au niveau international, la course pour construire un supercalculateur exaflopique (exascale en anglais) est lancée. Parmi ses leaders, Peter Beckman, chef du nouvel institut Exascale du Département de l'Énergie américain (DOE), affirme que de nombreux concurrents travaillent dur pour prendre la place de n¨1 des États-Unis dans le domaine des supercalculateurs. « Depuis deux ans, le DOE travaille sur l'informatique exaflopique, » a déclaré le super informaticien qui dirige l'Argonne National Laboratory, « mais le financement nécessaire - estimé à plusieurs milliards de dollars - pour construire ces systèmes de calcul n'a pas été approuvé. Si les États-Unis ne font pas cet effort en faveur du calcul exascale, nous ne pourrons pas avancer, » a-t-il déclaré.
Aujourd'hui, les systèmes les plus puissants atteignent le pétaflops, ce qui signifie qu'ils sont capables d'effectuer un million de milliards d'opérations en virgule flottante par seconde. Selon le dernier Top500 des supercalculateurs publié ce mois-ci, le système le plus rapide est le Tianhe-1A situé en Chine, lequel atteint les 2,5 pétaflops. Un système exaflopique quant à lui se mesure en exaflops, soit 1 milliard de milliards d'opérations en virgule flottante par seconde. La Chine, l'Europe et le Japon travaillent tous sur des plates-formes informatiques exascale.
Récemment nommé directeur du nouvel institut Exascale Technology and Computing Institute et du Leadership Computing Facility d'Argonne, Peter Beckman évoque les défis auxquels il est confronté dans ce domaine.
Que fait on pour faire avancer l'exaflopique actuellement ?
Nous réalisons et nous comprenons que nous avons besoin de faire évoluer le matériel, les logiciels et les applications vers un nouveau modèle. Le Département de l'Énergie et d'autres également, cherchent à financer cette évolution. Mais la planification des dépenses nécessaires vient à peine d'être entreprise. Le projet dans le domaine du logiciel, que je dirige avec Jack Dongarra, professeur d'informatique à l'Université du Tennessee et chercheur émérite de l'Oak Ridge National Laboratory, et quelques autres recherches, bénéficie d'un budget de démarrage. Mais pour aller plus loin, il revient au gouvernement de montrer qu'il souhaite s'engager dans un objectif ambitieux et mettre en place un véritable plan de financement.
Les contraintes énergétiques, d'architecture processeur, de vitesses d'horloge, ont modifié ce qui se passe à tous les niveaux en matière d'informatique. Dans le passé, les ordinateurs portables étaient équipés d'un ou deux CPU. Mais aujourd'hui, ils ont quatre et huit coeurs, et nous voyons ce qui se passe avec le parallélisme qui va exploser ces limites. Nous devons adapter les algorithmes et mettre au point des applications capables d'utiliser ce parallélisme. En même temps, sur le plan du matériel et des logiciels systèmes, il y a un décalage énorme avec les questions énergétiques et les centres de calcul - tout ce qui se passe dans l'univers des serveurs web standard arrive dans le calcul haute performance. Avec un délai de trois ou cinq ans. Il faut voir ça comme une machine à remonter le temps. Ce qui se passe dans le calcul haute performance, se passe ensuite dans les serveurs de haute performance, pour arriver jusqu'à l'ordinateur portable de tout utilisateur.
Ce grand bouleversement nous incite à penser qu'il faut faire un effort réel et concerté aussi bien dans le domaine du hardware, du software que des applications. Cela ne peut se faire dans un seul domaine à la fois. Il s'agit de répondre à des questions scientifiques fondamentales, pour concevoir par exemple des voitures plus économes en carburant, de meilleures batteries au lithium, mieux comprendre le climat, créer de nouveaux médicaments, etc.
Combien de temps faudra-t-il pour y parvenir ? Et à quelle étape en êtes-vous ?
Voilà bientôt 10 ans que nous y travaillons. IBM est un partenaire d'Argonne et du Lawrence Livermore Lab, et nous avons conçu ensemble le Blue Gene/P et le Blue Gene/Q. Dans ce partenariat, IBM a reçu de l'argent pour concevoir des prototypes. À côté de ça, nos scientifiques ont procédé à son évaluation constante, avançant au fur et mesure les options possibles pour répondre à des questions comme : Faut-il plutôt choisir une unité de gestion de la mémoire ou ajouter un coeur supplémentaire ? Mais cela se passait entre nous, en quelque sorte. Nous n'avions pas besoin de communiquer avec l'ensemble de la communauté scientifique. Dans le cas de l'exaflopique, le DOE a proposé de créer une série de centres ce conception, à charge pour chacun de travailler sur un domaine d'applications particulier : la fusion, les matériaux, la chimie, le climat, etc. Chaque entité pourra ainsi communiquer directement avec les concepteurs de plates-formes pour avancer son projet.
Pour lire l'intégralité de cette interview, rendez-vous sur ce lien.
Illustration : Argonne National Laboratory
cloud
Supercalculateurs exaflopiques : Pas avant 2018
0
Réaction
Newsletter LMI
Recevez notre newsletter comme plus de 50000 abonnés
Suivre toute l'actualité
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
Je m'abonne
Commentaire