Flux RSS
HPC

138 documents trouvés, affichage des résultats 61 à 70.
< Les 10 documents précédents | Les 10 documents suivants > |
(14/12/2010 16:35:27)
IBM va construire un supercalculateur de 3 pétaflops en Bavière
La course mondiale aux supercalculateurs se poursuit sans relâche: l'Académie des Sciences de Bavière en Allemagne a annoncé qu'il avait choisi IBM pour construire un superordinateur qui, une fois complet en 2012, sera capable d'offrir une puissance de calcul de 3 pétaflops, ce qui en fait potentiellement le supercomputer le plus puissant du monde.
Baptisé SuperMUC (le suffixe MUC est emprunté au code de l'aéroport de Munich), cet ordinateur, qui sera sous la tutelle du centre SuperComputing Leibniz de l'Académie des sciences à Garching en Bavière, sera à la disposition des chercheurs européens qui désirent sonder les frontières de la médecine, de l'astrophysique et d'autres disciplines scientifiques en remplacement du HLRB II lancé en 2006. «Avec ce nouveau supercalculateur, la communauté des chercheurs (...) reçoit un coup de pouce pour être à la pointe de la concurrence internationale », a déclaré dans un communiqué Martin Jetter, président du conseil d'administration d'IBM Allemagne.
Refroidissement à l'eau chaude
Le système reposera sur 14 000 Intel Xeon installés dans des serveurs IBM System x iDataPlex. Il utilisera aussi un système de refroidissement appelé Aquasar développé par Big Blue, qui utilise l'eau chaude pour refroidir les processeurs. Cette solution devrait permettre de réduire de 40% la consommation d'électricité du système de refroidissement selon la compagnie. « Le SuperMUC proposera des performances optimales tout en améliorant l'efficacité énergétique globale grâce à l'utilisation d'un parallélisme massif exploitant les processeurs multicoeurs Intel et le refroidissement à l'eau chaude reposant sur la technologie mis au point par IBM. Cette approche permettra à l'industrie de développer des supercalculateurs toujours plus puissants tout en gardant sous contrôle la consommation d'énergie », a déclaré dans un communiqué Arndt Bode, président du conseil d'administration du centre Supercomputing Leibniz.
La technologie Aquasar d'IBM
Une fois construit, le système devrait se classer sur une des marches du podium du Top500 des ordinateurs les plus puissants du monde, publié deux fois par an. Dans l'édition la plus récente de ce classement mondial, le système chinois Tianhe-1A, offrant une puissance de 2,67 pétaflops, occupe la première place. Très convoitée, cette-ci sera donc disputée par le SuperMUC, mais également par les supercalculateurs du Laboratoire national de Lawrence Livermore et de Oak Ridge, tous deux financés par le Département américain de l'énergie, engagé dans la construction d'un ordinateur 20 pétaflops. Les deux devraient être opérationnels en 2012. Le gouvernement fédéral allemand et le Land de Bavière ont contribué au financement du SuperMUC, qui fera partie de la Partnership for Advanced Informatique in Europe (PRACE), un programme visant à fournir aux chercheurs européens des ressources en calcul.
Illustration: Futur centre de recherche Leibniz-Rechenzentrum LR, crédit D.R.
Tsubame 2.0, un supercalculateur plus rapide et pas plus gourmand en énergie
Premier supercomputer pétaflopique japonais, Tsubame 2.0, classé quatrième machine la plus puissante du monde en novembre au Top 500 des superordinateurs, affiche un rendement de 2,4 pétaflops, soit 15 fois la puissance de son prédécesseur, le Tsubame. Comme ce dernier, cette version 2.0 tourne sur un mélange de CPU et de GPU très adaptés pour effectuer rapidement des opérations similaires sur de grandes quantités de données. Ils sont en particulier beaucoup plus efficaces que les processeurs pour résoudre des problèmes de dynamique moléculaire, des simulations physiques et pour le traitement d'image. Ils permettent aussi à la machine de consommer moins d'énergie. Le mérite en revient à Satoshi Matsuoka, directeur du département Global Scientific Information and Computing Center de l'université japonaise, lequel, pendant la planification du supercalculateur, avait demandé à ses chercheurs de construire une « belle machine qui ne consomme pas plus d'électricité. » L'université dépensait déjà environ 1,5 million de dollars par an pour alimenter le supercomputer existant et ne voulait pas voir sa note augmenter davantage. «Nous ne sommes pas limités par l'argent, ni par l'espace, ni par nos connaissances ou nos compétences. Notre limite, c'est la consommation d'énergie, » avait-il déclaré.
Un travail réalisé avec Hewlett-Packard
Pour construire le supercalculateur, le directeur avait sollicité Hewlett-Packard, Nvidia et à d'autres entreprises auxquelles il avait fait part de ses spécifications et de ses choix de conception. En 2009, pendant l'International Supercomputing Conference, celui-ci rencontre notamment Edward Turkel, directeur du marketing des produits HPC chez HP. « Nous avons parlé des exigences demandées pour réaliser ce nouveau système, » se souvient le responsable de HP. « Évidemment, nous devions construire un supercalculateur de très haute performance, de plusieurs pétaflops, avec une performance soutenue supérieure à 1 pétaflops. Mais il fallait aussi réaliser une machine de petite taille qui s'adapte au centre de calcul et peu gourmande en énergie !», a-t-il ajouté. «Nous nous sommes un peu grattés la tête pour dire finalement : Ça va être intéressant ! »
Satoshi Matsuoka, directeur du département Global Scientific Information and Computing Center de l'université de Tokyo
Association de puces Intel et Nvidia
Quand Satoshi Matsuoka a présenté les exigences du Tokyo Tech à Edward Turkel, celui-ci rappelle que HP avait déjà travaillé avec Nvidia sur la conception d'un serveur haute performance utilisant des GPU. « Une fois connues les spécifications, la conception a été affinée afin de répondre aux exigences de puissance et d'espace. Au final, nous avons construit un supercalculateur de 1408 noeuds, avec au coeur de chaque noeud, un serveur HP ProLiant SL390 doté d'un processeur Intel Xeon et des GPU Nvidia Tesla. » À l'intérieur de chacun des 1408 noeuds, il y a trois puces Tesla, chaque puce abritant 448 coeurs soit un total de près de 1,9 million de coeurs graphiques. Ce sont ces GPU qui donnent au Tsubame 2.0 l'essentiel de sa puissance. La machine a été classée au quatrième rang du Top 500 avec une performance soutenue maximale de 1,2 pétaflops (soit 1,2 million de milliards d'opérations à virgule flottante par seconde) et le deuxième au Green 500 pour son efficacité énergétique de 958 Mégaflops par watt. C'est le seul ordinateur à figurer dans les cinq premiers dans ces deux classements très recherchés.
Aujourd'hui, le Tsubame 2.0 est terminé et fonctionnel. L'université a ouvert son accès à des entreprises et des organismes qui souhaitent utiliser une partie de sa capacité. Le temps de calcul peut être acheté via le site Internet de l'université.
La technologie des puces CMOS photoniques rapproche IBM de l'exaflopique (MAJ)
Selon les chercheurs de Big Blue, l'utilisation de puces CMOS Integrated Silicon Nanophonics pourrait multiplier par mille les performances des supercalculateurs actuels. Cette technologie intègre des modules électriques et optiques sur une seule pièce de silicium. « Les signaux électriques créés au niveau du transistor sont convertis en impulsions lumineuses, permettant aux puces de communiquer à des vitesses plus rapides, » a déclaré Will Green, un scientifique et chercheur en photonique silicium chez IBM. Selon le fondeur, cette technologie pourrait être à l'origine d'énormes progrès en terme de puissance dans le domaine des supercalculateurs. Aujourd'hui, les plus rapides des super ordinateurs plafonnent à environ 2 pétaflops, soit deux millions de milliards de calculs par seconde. La technologie photonique pourrait les faire passer à l'exaflops, soit un miliard de milliards d'opérations en virgule flottante par seconde. « IBM pourra ainsi atteindre son objectif de construire un ordinateur exaflopique d'ici à 2020, » a précisé Will Green.
Les chercheurs d'IBM, Yurii Vlasov, William Green and Solomon Assefa (de G à D) qui ont travaillé sur la puce CMOS Integrated Silicon Nanophotonics.
« Dans un système exaflopique, les interconnexions doivent être en mesure de faire circuler plusieurs exaoctets par seconde à travers le réseau, » a expliqué le chercheur. « C'est une étape intéressante pour les constructeurs qui envisagent de réaliser des systèmes exaflopiques dans les 10 ans à venir. » Celui-ci ajoute qu'il serait possible d'intégrer de multiples modules photoniques sur un substrat unique ou sur une carte mère. Les supercalculateurs les plus récents utilisent déjà la technologie optique pour faire communiquer les puces entre elles, mais essentiellement au niveau du rack et surtout sur une seule longueur d'onde. « L'avancée d'IBM permettra une communication optique simultanée et sur plusieurs longueurs d'onde, » a-t-il déclaré. La fabrication de puces utilisant cette technologie peut se faire sur une ligne de production standard et ne nécessite aucun appareillage spécial, ce qui rend sa production très intéressante en terme de coût-efficacité, selon IBM.
L'optique à la place des liens cuivre
Les essais actuels ont porté sur la fabrication d'une plaque CMOS de 130 nanomètres, mais IBM veut démarrer la production avec des « plaques CMOS de moins de 100 nm», a dit Will Green. La technologie vise à remplacer les liens cuivre largement utilisés aujourd'hui pour le transfert de données entre les puces. L'optique peut être plus rapide, que ce soit sur des distances de quelques centimètres ou de quelques kilomètres, et consomme moins d'énergie. IBM espère pouvoir également utiliser un jour un système optique pour faire communiquer entre eux les transistors. « Intel effectue également des recherches dans la technologie nanophotonique sur silicium, mais n'a pas encore montré qu'elle savait réaliser l'intégration de la photonique et de l'électronique, » indique Will Green.
Les avancées d'IBM dans la nanophotonique arrivent après plus de 10 années de recherche menées dans ce domaine dans ses laboratoires à travers le monde. Au-delà de l'informatique haute performance, l'entreprise pense que sa technologie pourra être utilisée dans d'autres domaines, celui des réseaux en particulier.
(...)(01/12/2010 15:04:02)Le calcul intensif version Nvidia bientôt sur les mobiles
Cet apport, quand il sera effectif, devrait marquer un saut qualitatif dans la capacité pour les appareils mobiles comme les smartphones et les tablettes à exécuter des applications riches en multimédia. « L'avantage de CUDA dans les appareils mobiles est incroyable », a déclaré le PDG de Nvidia, Jen-Hsun Huang, dans une interview à Tokyo. CUDA gère certaines tâches gourmandes en ressource processeur comme le montage vidéo ou de retouche d'image en déchargeant le CPU vers le GPU. Ce système entraîne une amélioration significative de la vitesse de traitement des données.
Les puces graphiques sont limitées dans le type de traitement qu'elles peuvent réaliser, mais, avec plus de 100 coeurs dans un processeur graphique moderne contre seulement quelques coeurs dans un processeur, elles sont particulièrement bien adaptées à ces tâches (image et vidéo). L'architecture CUDA combine des logiciels et du matériel. Elle a été rapidement adoptée pour les supercalculateurs, dont plusieurs sont basés sur des combinaisons de GPU Nvidia et les processeurs Intel. Plus récemment, elle est arrivée dans l'entreprise et auprès du grand public pour accélérer des actions comme l'encodage vidéo dans Adobe Premiere CS5.
Découvrir un autre univers plus réactif
« Imaginez que nous apportons cette capacité CUDA dans un téléphone mobile » a dit Jen-Hsun Huang. Il a pris comme exemple une application capable de reconnaître une bouteille de vin depuis une image prise par le smartphone, puis l'interface se connecterait à un service de cloud computing pour fournir des informations sur le vin, le meilleur prix et quand il doit être bu. « Vous regardez à travers votre appareil photo et une multitude d'informations sur votre environnement sont disponibles instantanément » souligne le dirigeant et d'ajouter que l'intégration de cette architecture ne devrait voir le jour que d'ici 2 ou 3 ans.
La stratégie de Nvidia sur le mobile repose sur le processeur Tegra à base de technologies ARM. Le dual-core Tegra 2 a déjà été utilisé dans certains produits, comme le Folio de Toshiba et prochainement dans une tablette pour Dell. (...)
La Chine innove avec le site qui abritera le supercalculateur Tianhe-1A
C'est un design moderne et élégant que la Chine a choisi pour son nouveau centre de calcul NSCC (National Supercomputing Center). Une architecture qui se démarque de celles que l'on a l'habitude de retenir lorsque l'on bâtit un datacenter. Dimanche dernier, à Changsha, dans la province centrale de Hunan, ont débuté les travaux de construction du troisième centre de calcul du pays. C'est là que sera accueilli le désormais fameux supercalculateur Tianhe-1A qui, depuis une semaine, culmine au premier rang du Top500 des ordinateurs les plus rapides du monde, avec sa puissance de 2,5 petaflops/s. L'agence de presse chinoise Xinhua a publié hier des photos du projet qui reflète les ambitions du pays dans le domaine du calcul haute performance.
Pour Tad Davies, vice président exécutif de Bick Group, une société qui travaille notamment sur la conception de datacenters, le rendu proposé par l'image est destiné à créer des impressions plutôt qu'à refléter la réalité. Quoiqu'il ne sache pas avec certitude laquelle des deux bâtisses abritera le supercalculateur, la construction ronde pourrait être utilisée pour recueillir l'eau. En revanche, le niveau en sous-sol visible sur l'image pourrait constituer un emplacement idéal pour l'ordinateur. Le bâtiment rectangulaire est très probablement destiné aux laboratoires, aux salles de classe et aux bureaux, estime Tad Davies.
La Chine a lancé un offensif programme de développement sur le terrain des supercalculateurs si l'on en juge par les « slides » de présentation faite par un représentant du centre de calcul haute performance de l'Académie chinoise des Sciences, à l'occasion d'une conférence sur le thème des systèmes exaflopiques en octobre. Entre 2011 et 2015, le pays veut construire au moins un système capable d'atteindre une puissance de 50 à 100 petaflops. Les Etats-Unis, de leur côté, prévoient au moins deux systèmes à 20 petaflops en 2012, l'un au laboratoire national d'Oak Ridge et l'autre au laboratoire national Lawrence Livermore.
La Chine s'est fixé de réaliser son premier système exaflopique entre 2016 et 2020 (un exaflop est un millier de fois plus rapide qu'un petaflop).
Illustration : site de l'agence de presse Xinhua (crédit photo : D.R.) (http://news.xinhuanet.com/english2010/china/2010-11/28/c_13626049.htm)
Une start-up recycle les ressources inutilisées dans les clouds
Si l'on s'intéresse aux technologies permettant d'améliorer l'utilisation des ressources informatiques au sein de l'entreprise, ce sont assurément VMware et son logiciel de virtualisation x86 qui viennent peut-être le plus facilement à l'esprit. Mais il en existe une nouvelle, plus récente, proposée par un petit vendeur qui a déjà attiré de nombreux clients classés au Fortune 500. Celui-ci propose des technologies de « grille » et de gestion cloud qui réutilisent les cycles de calcul perdus et automatisent le processus de construction de clusters HPC. Fondée il y a cinq ans, Cycle Computing avait pour principale activité d'aider ses clients à utiliser Condor, un système de gestion de charge pouvant exécuter des tâches de calcul intensif sur des PC mis en veille. Puis, l'entreprise a été amenée à gérer de nombreux systèmes de planification de tâches, imaginant pour ses clients des solutions permettant de réutiliser la capacité excédentaire des installations VMware, compatibles avec des services cloud comme l'EC2 d'Amazon.
Lors de la récente conférence SC10 sur les supercalculateurs qui s'est tenue à la Nouvelle Orléans, le fondateur et PDG de Cycle Computing, Jason Stowe, a pu faire état d'une impressionnante liste de clients, parmi lesquels JP Morgan Chase, Pacific Life, Lockheed Martin, Eli Lilly, Pfizer, Bank of America, Electronic Arts, Johnson & Johnson et ConocoPhillips. JP Morgan Chase, par exemple, s'appuie sur la technologie de Cycle Computing pour effectuer d'importants calculs en utilisant des capacités de travail qui, selon Jason Stowe, seraient perdues. Sa société de moins de 20 personnes, qui a démarré sans investisseurs extérieurs, affiche « quelques millions de dollars » de revenus pour moins d'une centaine de clients. « Cycle Computing a vu ses revenus croître de 50% par an au cours des quatre dernières années, » a déclaré son PDG.
Une technologie issue du monde mainframe
Tout comme VMware a emprunté sa technologie de virtualisation au mainframe d'IBM pour l'appliquer aux centres de calcul avec leurs serveurs x86, Computing Cycle s'est inspirée de stratégies fondées sur une recherche vieille de plusieurs décennies et l'a adapté à l'âge du cloud computing et de la virtualisation. L'idée d'exploiter les cycles inutilisés des ordinateurs de bureau pour réaliser des clusters de calcul existe « depuis 20 ans », explique Steve Conway, analyste chez IDC. Le système Condor est lui aussi connu depuis 25 ans environ. « Cycle Computing a réussi, parce qu'elle propose d'automatiser les tâches difficiles qui doivent être effectuées par les administrateurs, » fait remarquer l'analyste, ajoutant que «tout le monde cherche la facilité d'utilisation. » Mais pour Steve Conway, le plus intéressant au sujet de Computing Cycle, c'est son plan à long terme pour proposer une technologie de clusters viable et compatible avec des services cloud comme Amazon EC2. Même s'il pense que la technologie n'a pas encore atteint son maximum aujourd'hui, il estime « qu'au cours des prochaines années », il pourra être possible de la développer sur tous les clouds publics, un équivalent total de l'environnement informatique corporate sur site, avec toutes les politiques, toutes les directives, et tout le reste. « Ce modèle peut vraiment devenir une extension élastique de l'environnement d'entreprise, » a-t-il déclaré.
Le produit CycleCloud, construit sur Amazon Web Services, permet aux clients de créer des clusters de calcul haute performance qui ouvrent et ferment automatiquement les noeuds à mesure que les charges de travail démarrent et s'achèvent. « En quelques minutes - 10 à 15 min environ -le logiciel CycleCloud « met en route un environnement HPC complet à l'intérieur de l'infrastructure Amazon, » avec des systèmes de fichiers partagés, un térabit de stockage, une interconnexion de 10 Gigabits et des puces Nehalem d'Intel, » explique le PDG de Cycle Computing. Alors que CycleCloud gère les ressources externes, CycleServer, autre produit du vendeur, apporte au centre de calcul une interface web basée sur Condor, SGE, Torque et Hadoop pour la gestion des clusters HPC. La technologie de Cycle Computing fonctionne indifféremment sur des systèmes d'exploitation Linux et Windows.
En complément de VMware
L'une des utilisations les plus surprenantes de cette technologie concerne les datacenters faisant un usage intensif de l'hyperviseur VMware. Selon Jason Stowe, même si la technologie VMware optimise l'utilisation des cycles en permettant à de multiples images de système d'exploitation et à des applications de s'exécuter sur la même machine, ces serveurs sont encore sous-utilisés, en particulier la nuit. «VMware travaille sur la consolidation. Cela ne modifie pas la nature du pic comparé à l'utilisation moyenne,» indique le PDG de Cycle Computing. « Ces serveurs sont utilisés de manière incroyablement intense à certains moments, et pas du tout à d'autres. La virtualisation n'a aucun impact sur ça. » L'entreprise a une demande croissante pour améliorer l'utilisation des serveurs VMware et dispose « d'une assez belle notoriété autour de ça, » ajoute Jason Stowe. « Si vous tirez 20% à 40% de votre environnement VMware, c'est déjà assez impressionnant en terme de degré d'utilisation du processeur, » dit-il. « Mais vous laissez toujours une capacité de 60% de côté. Notre système permet d'arriver à plus de 90%. »
Même si les produits de Cycle sont plutôt ciblés sur des scénarios de calcul technique, en théorie, toute entreprise ayant une capacité de calcul inutilisée pourrait en bénéficier. « Parmi les concurrents de Cycle Computing, on peut citer SGI et Wipro, Amazon et Microsoft, » dit Steve Conway. Amazon, par exemple, offre désormais des instances de clusters basées sur des processeurs graphiques, et Windows HPC Server de Microsoft sait maintenant utiliser des PC en veille tournant sous Windows 7. Selon l'analyste, Cycle Computing a tendance à être plus cher que ses concurrents, car ses produits sont très spécialisés. Mais celui-ci a confiance dans l'avenir de la jeune entreprise. «Ce que j'aime à propos de Cycle en particulier, c'est la perspective que l'entreprise apporte, » dit Steve Conway. « Ils ont vraiment une vision très forte et très claire de la manière dont va évoluer le cloud computing dans les deux à cinq prochaines années. »
Dezineforce : le supercalculateur mis en boite
La société britannique Dezineforce a trouvé comment mettre la technologie des supercalculateurs à la disposition des petites entreprises. Son produit, Technical Computing, sait réaliser des simulations complexes utilisées par les ingénieurs d'études et fournir des résultats en quelques minutes plutôt qu'en plusieurs heures. « Disponible soit sous forme de boîte noire, « Dezineforce Black Box», soit en version cloud, le produit sert du calcul haute performance (HPC) à tout ingénieur capable de mettre en route un grille-pain », selon Joe Frost, vice-président responsable des ventes.
L'appareil lui-même a été conçu afin d'optimiser au maximum les ressources disponibles au sein d'une entreprise. « La boîte noire apporte essentiellement une capacité de calcul HPC, configurée spécifiquement pour l'analyse conceptuelle. Elle est fournie, préinstallée, avec des applications d'analyse comme ANSYS Mechanical et LS-Dyna, une suite d'outils opérationnels et de planification complexe capable de gérer l'ensemble des travaux soumis par les ingénieurs au système afin d'utiliser au maximum les ressources en calcul et en analyse disponibles. Cela assure aussi un travail en continu qui accroît l'efficacité », explique Joe Frost.
Accélérer les temps de rotation, de 10 à 50 fois
Selon Dezineforce, la possibilité d'accéder à l'HPC dans de telles conditions peut permettre à une entreprise de réaliser des économies substantielles qui résultent de plusieurs facteurs. « Les coûts de conception sont dominés par trois facteurs qui, sont, par ordre de grandeur, l'ingénieur, la licence de l'outil d'analyse et le matériel », détaille le responsable des ventes. Selon lui, les entreprises souhaitent réduire en particulier le coût d'ingéniering, soulignant que le temps d'attente lié à l'achèvement des analyses représente l'un des plus grands gaspillages en temps de travail. « Une ressource commune, centralisée, équipée d'un outil de planification décent élimine ce temps d'attente. L'analyse sur une machine HPC (en parallèle) accélère également les temps de rotation, de 10 à 50 fois au moins. »
Joe Frost fait aussi remarquer que la boîte HPC permet une utilisation plus efficace des licences. « De nombreuses entreprises pourront partager les licences d'analyse - celles-ci peuvent représenter chacune un coût annuel de 50 000 £ (environ 60 000 euros)- entre plusieurs ingénieurs », expose-t-il. « Le problème principal se pose notamment lorsque différents ingénieurs ont besoin d'utiliser les mêmes ressources au même moment, ou quand l'un d'eux monopolise une licence pour effectuer son travail. » Avec ce système de ressource centralisée dont on peut planifier correctement l'usage, les entreprises peuvent caler les travaux en fonction des licences disponibles. « Cela élimine le problème de licence, permet de les utiliser de manière intensive 24H/24, 7j/7, et de maximiser le retour sur investissement ».
Des ressources mutualisées plutôt des postes individuels
L'économie finale existe aussi sur le matériel lui-même. Comme l'a expliqué Joe Frost, la plupart du temps, les entreprises s'emploient à fournir des ordinateurs individuels de plus en plus puissants à leurs ingénieurs, des machines ayant jusqu'à 12 coeurs et dotées de 8 à 12 Go de mémoire vive. Sauf que, comme il le dit, « ces ressources sont des ressources individuelles, réservées à un ingénieur en particulier, avec un temps d'utilisation limité, estimé entre 20 et 50 %. Si bien que le déploiement d'un environnement informatique partagé de type HPC réduit les besoins en informatique desktop. » Les économies viennent du fait qu'il suffit de déployer une seule machine capable d'effectuer les traitements complexes, plutôt que d'équiper de machines individuelles, ce qui représenterait un coût minimum estimé de 6 000 £ (environ 7 000 euros) par poste de travail. En outre, ajoute Joe Frost, Dezineforce construit ses clusters sur une base matérielle standard offrant des performances similaires, à un coût beaucoup plus faible : « Nous comparons ici des supercalculateurs spécialisés à 48 coeurs avec des super-ordinateurs Dell avec 48 coeurs. »
Dezineforce a déjà travaillé avec l'entreprise de construction Arup sur un récent projet de climatisation pour un stade de 65 000 places au Moyen-Orient. Le principal défi consistait à éviter d'installer un système réglable sur chaque siège, ce qui aurait pu être nécessaire. « Arup avait besoin d'accéder à une informatique haute performance pour effectuer une analyse détaillée, et de réaliser des centaines de simulations avec le logiciel d'optimisation pour identifier la configuration la plus efficace », a déclaré Frost. « Le logiciel d'optimisation a aidé au processus de décision et permis de limiter le nombre de simulations nécessaires. L'une des principales difficultés était de pouvoir effectuer l'installation et la configuration dans les délais requis, ce que n'aurait pas permis un processus normal. La solution HPC de Dezineforce leur a fourni instantanément ce dont ils avaient besoin. »
L'offre de la société britannique (qui a pris racine à l'Université de Southampton), est déjà disponible en Europe et sera disponible aux États-Unis l'année prochaine. Dezineforce participe au programme Bizspark One de Microsoft.
Illustration : vidéo de présentation de l'offre sur le site de Dezineforce (crédit : D.R.) (...)
Supercalculateurs exaflopiques : Pas avant 2018
Au niveau international, la course pour construire un supercalculateur exaflopique (exascale en anglais) est lancée. Parmi ses leaders, Peter Beckman, chef du nouvel institut Exascale du Département de l'Énergie américain (DOE), affirme que de nombreux concurrents travaillent dur pour prendre la place de n¨1 des États-Unis dans le domaine des supercalculateurs. « Depuis deux ans, le DOE travaille sur l'informatique exaflopique, » a déclaré le super informaticien qui dirige l'Argonne National Laboratory, « mais le financement nécessaire - estimé à plusieurs milliards de dollars - pour construire ces systèmes de calcul n'a pas été approuvé. Si les États-Unis ne font pas cet effort en faveur du calcul exascale, nous ne pourrons pas avancer, » a-t-il déclaré.
Aujourd'hui, les systèmes les plus puissants atteignent le pétaflops, ce qui signifie qu'ils sont capables d'effectuer un million de milliards d'opérations en virgule flottante par seconde. Selon le dernier Top500 des supercalculateurs publié ce mois-ci, le système le plus rapide est le Tianhe-1A situé en Chine, lequel atteint les 2,5 pétaflops. Un système exaflopique quant à lui se mesure en exaflops, soit 1 milliard de milliards d'opérations en virgule flottante par seconde. La Chine, l'Europe et le Japon travaillent tous sur des plates-formes informatiques exascale.
Récemment nommé directeur du nouvel institut Exascale Technology and Computing Institute et du Leadership Computing Facility d'Argonne, Peter Beckman évoque les défis auxquels il est confronté dans ce domaine.
Que fait on pour faire avancer l'exaflopique actuellement ?
Nous réalisons et nous comprenons que nous avons besoin de faire évoluer le matériel, les logiciels et les applications vers un nouveau modèle. Le Département de l'Énergie et d'autres également, cherchent à financer cette évolution. Mais la planification des dépenses nécessaires vient à peine d'être entreprise. Le projet dans le domaine du logiciel, que je dirige avec Jack Dongarra, professeur d'informatique à l'Université du Tennessee et chercheur émérite de l'Oak Ridge National Laboratory, et quelques autres recherches, bénéficie d'un budget de démarrage. Mais pour aller plus loin, il revient au gouvernement de montrer qu'il souhaite s'engager dans un objectif ambitieux et mettre en place un véritable plan de financement.
Les contraintes énergétiques, d'architecture processeur, de vitesses d'horloge, ont modifié ce qui se passe à tous les niveaux en matière d'informatique. Dans le passé, les ordinateurs portables étaient équipés d'un ou deux CPU. Mais aujourd'hui, ils ont quatre et huit coeurs, et nous voyons ce qui se passe avec le parallélisme qui va exploser ces limites. Nous devons adapter les algorithmes et mettre au point des applications capables d'utiliser ce parallélisme. En même temps, sur le plan du matériel et des logiciels systèmes, il y a un décalage énorme avec les questions énergétiques et les centres de calcul - tout ce qui se passe dans l'univers des serveurs web standard arrive dans le calcul haute performance. Avec un délai de trois ou cinq ans. Il faut voir ça comme une machine à remonter le temps. Ce qui se passe dans le calcul haute performance, se passe ensuite dans les serveurs de haute performance, pour arriver jusqu'à l'ordinateur portable de tout utilisateur.
Ce grand bouleversement nous incite à penser qu'il faut faire un effort réel et concerté aussi bien dans le domaine du hardware, du software que des applications. Cela ne peut se faire dans un seul domaine à la fois. Il s'agit de répondre à des questions scientifiques fondamentales, pour concevoir par exemple des voitures plus économes en carburant, de meilleures batteries au lithium, mieux comprendre le climat, créer de nouveaux médicaments, etc.
Combien de temps faudra-t-il pour y parvenir ? Et à quelle étape en êtes-vous ?
Voilà bientôt 10 ans que nous y travaillons. IBM est un partenaire d'Argonne et du Lawrence Livermore Lab, et nous avons conçu ensemble le Blue Gene/P et le Blue Gene/Q. Dans ce partenariat, IBM a reçu de l'argent pour concevoir des prototypes. À côté de ça, nos scientifiques ont procédé à son évaluation constante, avançant au fur et mesure les options possibles pour répondre à des questions comme : Faut-il plutôt choisir une unité de gestion de la mémoire ou ajouter un coeur supplémentaire ? Mais cela se passait entre nous, en quelque sorte. Nous n'avions pas besoin de communiquer avec l'ensemble de la communauté scientifique. Dans le cas de l'exaflopique, le DOE a proposé de créer une série de centres ce conception, à charge pour chacun de travailler sur un domaine d'applications particulier : la fusion, les matériaux, la chimie, le climat, etc. Chaque entité pourra ainsi communiquer directement avec les concepteurs de plates-formes pour avancer son projet.
Pour lire l'intégralité de cette interview, rendez-vous sur ce lien.
Illustration : Argonne National Laboratory
cloud
Dassault Aviation se dote de supercalcultateurs Bull
Le groupe Dassault Aviation a donc décidé d'accroître ses capacités de calculs haute performance en se dotant de nouveaux super-calculateurs. L'avionneur souhaitait une solution capable de modularité afin de pouvoir l'accroître si besoin sans remettre en cause son architecture. De plus, il était nécessaire de minimiser la consommation électrique, tant pour des raisons de coût que d'empreinte carbone, et la maintenance. Enfin, l'architecture existante utilisant notamment des super-calculateurs Bull devait pouvoir accueillir l'extension réalisée.
Après appel d'offres, Dassault Aviation a choisi de se doter de calculateurs Bullx, fournis par la société française. En l'occurrence, l'équipement comprend trois racks Bullx avec neuf châssis Bullx B pour un total de 324 processeurs Intel Xeon 5560 (soit 1296 cores) et 4,7 TB de mémoire. L'ensemble déploie 13,8 Tflops de performance crête. Le coût du projet n'a pas été communiqué. L'architecture de calcul de Dassault Aviation est désormais constituée à 60% de produits fournis par Bull.
< Les 10 documents précédents | Les 10 documents suivants > |