Les supercalculateurs doivent concilier puissance et rentabilité Michel Alberganti Deux architectures de superordinateurs, les vectoriels de Cray et les superscalaires d'IBM, s'affrontent sur le marché étroit du calcul scientifique intensif. Les fabricants visent pour 2010 le pétaflops, soit un million de milliards d'opérations par seconde. D'un côté , les machines vectorielles de Cray, de l'autre les ordinateurs superscalaires d'IBM. Deux conceptions s'affrontent sur le marché étroit mais stratégique du calcul scientifique intensif. Cray a mis en production fin 2002 son nouveau système X1 qui affiche une puissance de crête de 819,2 gigaflops (milliard d'opérations à virgule flottante par seconde) par module de 64 processeurs. Le fabricant propose des configurations rassemblant 4 000 puces pour atteindre les 52,4 téraflops (million de millions d'opérations à virgule flottante par seconde). Cray annonce simultanément son objectif d'atteindre le pétaflops, soit 1015 opérations par seconde, en 2010. S'il y parvient, le constructeur aura réussi à passer du gigaflops, lancé en 1990, au pétaflops (million de milliards), soit une puissance de calcul multipliée par un million en vingt ans... L'entreprise créée par Seymour Cray en 1972, rachetée en 1996 par Silicon Graphics quelques mois avant la disparition de son fondateur et vendue à Tera Computer en mars 2000, renaît de ses cendres grâce à l'appui de son premier client. Le gouvernement américain a en effet financé plus de la moitié des 100 millions de dollars dépensés pour développer le nouveau modèle de Cray, le X1. "Le gouvernement voulait un tel système pour assurer des missions critiques", explique James Rottsolk, PDG de Cray, qui ne conteste pas que les applications visées sont militaires. Les Etats-Unis doivent mettre au point les prochaines générations de d'armes nucléaires sans faire appel à des essais réels. En fait, la première machine livrée par Cray semble destinée à une autre tâche particulièrement sensible : le décryptage, activité phare de la National Security Agency. L'importance stratégique de tels supercalculateurs capables de simuler une explosion nucléaire ou de casser n'importe quel code secret constitue une chance pour Cray dont les machines restent fidèles à l'architecture vectorielle abandonnée par la plupart des fabricants, en dehors de NEC. "Cray reste la seule entreprise spécialisée dans les supercalculateurs, affirme James Rottsolk pour justifier l'aide de l'Etat. Les autres sont orientés vers le marché des ordinateurs de bureau et fabriquent des supercalculateurs en réalisant des assemblages de machines individuelles (clusters). Le X1, lui, est conçu comme une entité à part entière dont les processeurs partagent les données et travaillent ensemble". Les tenants du scalaire Preuve que le vectoriel n'est pas mort, le supercalculateur le plus puissant du monde que NEC a fabriqué pour le projet Earth Simulator l'utilise. En deuxième position dans la liste du Top 500 mondial, on trouve les deux machines installées par Hewlett-Packard au laboratoire de Los Alamos et dont la puissance de crête dépasse à peine les 10 téraflops. Concurrent historique de Cray aux Etats-Unis, IBM a abandonné le vectoriel au profit de l'architecture scalaire formant des clusters. "Le scalaire s'applique plus facilement que le vectoriel à des problèmes différents", explique Luigi Brochard, architecte pour le calcul scientifique pour l'Europe chez IBM. Derrière les raisons techniques du choix du scalaire, se profilent de solides motivations économiques. En effet, les machines développées par IBM et les tenants du scalaire sont adaptées aux applications de gestion, ce qui élargit considérablement leur marché en réduisant les prix de vente. "Le développement des puces revient extrêmement cher et nous avons besoin de nombreux clients", précise Eric Taillard, responsable des ventes Unix Linux chez IBM France. "Les budgets des centres de calcul n'augmentent pas alors que leurs besoins de puissance explosent avec la simulation et la conception virtuelle", ajoute-t-il. De nombreux laboratoires ont donc adapté leur stratégie au réalisme économique prôné par IBM. Ainsi, en France, le centre de calcul du CNRS à Orsay, l'Idris, a tourné casaque fin 2001 en remplaçant le T3E vectoriel acheté en 1996 à Cray par un cluster de 8 machines scalaires IBM Power4 (1,3 téraflops, 92e dans le Top 500). Même choix pour la direction des applications militaires (DAM) du CEA qui a fait l'acquisition, fin 2001, du supercalculateur Tera fabriqué par Compaq, devenu Hewlett-Packard depuis, et qui arrive en septième position mondiale et occupe la première en Europe avec une puissance de crête de 5 téraflops. Destiné au développement des armes nucléaires et à la simulation de leur fonctionnement et de leurs effets, cette machine est dix fois moins puissante que la configuration proposée par Cray avec le X1 et vingt fois moins que le système annoncé par IBM en novembre 2002. En effet, Big Blue n'a laissé que cinq jours à Cray pour s'attribuer la commercialisation du supercalculateur le plus puissant du monde. Le 19 novembre 2002, IBM révélait que le département américain de l'énergie (DOE) avait passé commande de deux machines : l'ASCI Purple (100 téraflops) ; Blue Gene/L (367 téraflops). Ces chiffres astronomiques n'impressionnent guère Cray, qui met le doigt sur l'une des faiblesses majeures des clusters de machines scalaires : leur efficacité en application réelle. "Suivant les cas, le rendement des supercalculateurs scalaires varie de 1 % à 10 % dans le meilleur des cas, quand les supercalculateurs vectoriels peuvent atteindre 25 % à 50 %", assure Steve Scott, directeur scientifique de Cray, qui explique cette différence par les fondements mêmes de l'architecture scalaire. "Les données s'y déplacent difficilement et les processeurs se retrouvent souvent à cours d'information à traiter", souligne-t-il. Chez IBM, Luigi Brochard ne conteste pas cette faiblesse mais il en limite l'impact. "Nous oscillons entre 10 % et 75 % d'efficacité", estime-t-il, en indiquant que les calculs de prévisions météo se situent dans le bas de la fourchette. L'écart entre chiffres annoncés et puissance effective demeure très important, particulièrement avec les clusters de machines scalaires. "C'est pourquoi nous travaillons beaucoup, reconnaît Luigi Brochard , à augmenter les 10 %". Des calculs plus fins grâce au pétaflops Pour quelles applications peut-on avoir besoin de la phénoménale puissance de calcul de 1 million de milliards (1015) d'opérations par seconde ? Comme les activités militaires dont les besoins semblent sans limite, les activités scientifiques se heurtent parfois à des problèmes d'une complexité telle qu'ils justifient de recourir à la puissance des supercalculateurs. Deux grands domaines sont ouverts à de telles machines : les sciences de la vie et la climatologie. Dans le premier, il s'agit, par exemple, de comprendre comment une cellule fonctionne. Dans le second, la précision du résultat dépend de la finesse du calcul, c'est-à-dire de la réduction de la résolution du maillage du phénomène modélisé. C'est le cas avec les 10 km que doit atteindre Earth Simulator. Enfin, la simulation s'étend à des domaines de plus en plus nombreux (espace, aéronautique, automobile...) à travers le développement rapide du prototypage virtuel qui permet de visualiser et de valider une conception sans fabriquer d'objet réel |
|||||
|