Si l'avenir des supercalculateurs s'annonce radieux, leur utilisation étant plus que jamais nécessaire au niveau scientifique et économique, plusieurs écueils sérieux pourraient paradoxalement entraver leur essor.

Le premier défi concerne la masse de données obtenues au terme d'un calcul, qui augmente en corrélation avec la hausse de la puissance des machines.

«Le prochain mur, c'est celui des datas», prévient Jean-Philippe Proux, de GENCI, l'organisme qui finance tous les investissements en simulation numérique en France.

L'horizon du milliard de milliards d'opérations par seconde étant en vue, le transport des énormes données issues de calculateurs toujours plus performants risque d'être un problème dans un avenir proche.

«Des centres de calcul ont quatre pétas de données sur disques durs, et, quand vous êtes obligés de changer d'équipement parce qu'il est obsolète, pour migrer les données en interne il faut déjà pas loin de quatre mois», fait valoir M. Proux.

Dès 2016, le volume devrait exploser alors que le débit aura du mal à suivre même en agrégeant les tuyaux, qui plafonnent jusqu'à présent à 10 gigabits par seconde.

GENCI va donc préventivement réaliser un état des lieux de toutes les connexions du réseau français afin d'optimiser sa capacité de transfert.

Ajouté à la difficulté du déplacement de contenus trop imposants se pose celui de leur analyse comme l'indique Pierre Leca, du CEA: «un calculateur 10 fois plus rapide que le précédent peut réaliser 10 fois plus de calculs, dans le but d'obtenir un résultat plus pertinent, mais derrière l'ordinateur il y a toujours un humain qui interprète le résultat».

Cette fuite en avant du HPC (High Performance Computing) vers plus de puissance concerne en premier lieu la question de la consommation électrique, qui atteint en moyenne 10 MW pour les machines de pointe.

«Aujourd'hui le coût d'acquisition d'une machine est quasiment équivalent au coût de l'électricité que vous allez payer pour la faire marcher pendant 5 ans», souligne Jean-François Lavignon, de Bull.

«Si on poursuit cette tendance, on ne pourra plus se payer le fonctionnement des machines», indique celui qui est également président d'ETP4HPC, la plateforme technologique européenne pour le HPC.

Une des solutions pourrait être que l'électricité utilisée pour le refroidissement soit entièrement dévolue au calcul.

En 2008, il fallait autant d'énergie pour refroidir un supercalculateur que pour le faire fonctionner, désormais moins de 5 % est affecté au refroidissement, en passant notamment de l'eau froide à l'eau tiède.

Sous les armoires renfermant les noeuds de calcul comme ceux de la machine Curie hébergée dans les locaux du CEA à Bruyères-le-Châtel (Essonne), dont le bruit assourdissant impose le port d'un casque de protection, passent en effet de grandes canalisations.

Il est aussi envisageable de prendre plus de temps pour chaque simulation, pour moins solliciter la puissance et donc moins dépenser d'énergie.

La solution viendra sans doute des progrès du parallélisme, permettant de réaliser plus d'opérations à un même instant grâce aux processeurs multi-coeurs, mais qui en retour nécessite de réécrire les applications.

«Pour créer un nouveau modèle sur l'aérodynamique des avions, repartir de zéro nécessite cinq à dix ans d'effort avec des équipes comprises entre dix et vingt personnes», souligne ainsi Jean-François Lavignon.

Ces obstacles techniques paraissent ardus à franchir mais, après tout, «ce qui était très puissant il y a 20 ans en informatique, c'est ce qu'on a maintenant dans son téléphone portable», relativise Pierre Leca.