Flux RSS

HPC

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

138 documents trouvés, affichage des résultats 131 à 138.

< Les 10 documents précédents


(31/03/2009 18:17:47)

Nehalem fait (enfin) sa sortie officielle

Cette fois, il est là. Le processeur Nehalem d'Intel est officiellement disponible sous son vrai nom, le Xeon 5500. On avait presque oublié qu'il n'avait pas fait sa sortie dans le grand monde, puisque depuis plusieurs semaines, nombreux sont les constructeurs à avoir présenté des machines qui exploitent ces nouvelles puces : Apple et Lenovo pour les postes de travail, Cisco, Dell, HP et IBM pour les serveurs. La ligne complète de Xeon 5500 se décline en 17 versions, des quadri-coeurs pour la plupart avec 4 à 8 Mo de cache de niveau 3. Leurs fréquences s'échelonnent entre 1,86 et 3,20 GHz et Intel présente une série de mesures impressionnantes. Le nouveau Xeon affiche ainsi des performances de calcul en entiers de 240 SPECint_rate_base2006 et en virgule flottante de 194 SPECfp_rate_base2006 (sur Primergy de Fujitsu). L'exécution d'Oracle 11g sur un ProLiant DL370 de HP donne 631 766 tpmC et le test du module de gestion commerciale SAP SD sur serveur IBM System x 3650 M2 montre une capacité à gérer 5 100 utilisateurs. Du côté de la virtualisation, la puce obtient 23,55 pour 16 « mosaïques » (ensembles de six machines virtuelles) au test VMmark (mesure des performances en virtualisation) sur plusieurs plateformes. Il faut dire qu'Intel a porté une attention toute particulière au sujet. La fin du Front Side Bus Outre sa conception en 45 nm et l'utilisation du nouvel isolant high-K metal gate, Intel a truffé sa puce d'innovations technologiques. Les constructeurs de serveurs l'avaient laissé entendre et le fondeur confirme : le 5500 sera un bien meilleur gestionnaire de mémoire que ses prédécesseurs, une des raisons qui en ferait une puce particulièrement adaptée à la virtualisation. Le Nehalem tire ses capacités d'un contrôleur mémoire installé directement sur la puce. Le Front Side Bus qui jouait l'intermédiaire entre processeur et mémoire a définitivement disparu. Par ailleurs, le processeur sait désormais gérer de la DDR3 et un total de 144 Go. Pour mieux s'adapter à la virtualisation, Intel propose aussi une nouvelle génération de sa propre technologie VT (Virtualization Technology) et une assistance matérielle à la gestion des entrées/sorties. Des outils censés doubler les performances de la virtualisation et réduire de 40% les délais de latence en la matière. Le TurboBoost, lui, règle la fréquence des coeurs en fonction de la charge qui leur est allouée. Les processeurs travailleront ainsi au-dessus de leur fréquence nominale (jusqu'à 3,33 GHz) pour accélérer certaines tâches, et a contrario, seront mis en veille afin de consommer un minimum lorsqu'ils n'ont rien à faire (10 watts). Un focus particulier sur la performance énergétique [[page]] Parmi les autres outils qui augmentent les performances, l'hyper-threading exécute jusqu'à huit threads (instructions élémentaires) par Xeon 5500. Le QPI (QuickPath Interconnect) de son côté, permet une connexion plus rapide avec les autres processeurs et composants de la machine. Pas de surprise en outre, Intel s'est focalisé sur la performance énergétique de son Xeon 5500. Il est donc capable de s'installer dans un mode veille très économe grâce au Turboboost, mais aussi de se remettre en fonctionnement beaucoup plus rapidement, préservant là encore l'énergie. Les interrupteurs électriques intégrés (Power Gates) savent, eux, désactiver l'alimentation de certains coeurs. Avec l'Intelligent Power Technology, l'OS peut aussi placer les processeurs, les chipsets et la mémoire dans leur état le moins gourmand pour une tâche donnée. Intel estime que dans une même enveloppe énergétique, un serveur à base de Xeon 5500 devrait être 2,25 fois plus performant que ses prédécesseurs. La plate-forme serveur Verari Systems VB1305 équipée du Nehalem obtient un score de 1943 ssj_ops/watt dans le cadre de la mesure de rendement énergétique SPECpower_ssj2008 (mesure du rendement énergétique). Un record si l'on en croit Intel. Ce test fait travailler tous les éléments du serveur, y compris en exploitant le multiprocessing, installe une machine virtuelle Java, un compilateur JIT, etc. Le fondeur livrera des versions à 95, 80 et 60 watts pour des modèles en rack ou des lames. (...)

(09/03/2009 18:11:04)

Intel choisit Saclay pour étudier les environnements de supercalcul de demain

A la faveur de la visite en France de Craig Barrett, président de son conseil d'administration, Intel a annoncé la création dans l'Essonne d'un centre de recherche universitaire destiné au calcul haute performance. Créé en collaboration avec le CEA (Commissariat à l'énergie atomique), le Genci (Grand équipement national de calcul intensif) et l'université Versailles-Saint-Quentin-en-Yvelines (UVSQ), ce laboratoire sera installé sur le plateau de Saclay, haut lieu hexagonal du supercalcul. « Les travaux de recherche consisteront à caractériser les applications de calcul scientifique telles qu'elles existent aujourd'hui et telles qu'elles se dessineront dans 10 ans, détaille Philippe Thierry, développeur d'applications senior au sein du Software solution group chez Intel. » Ainsi, les chercheurs étudieront les besoins des applications en calcul flottant, en bande passante mémoire, en latence mémoire ou en interconnexion. Et ils en analyseront aussi l'évolution pour les dix prochaines années. Pour caractériser ces applications HPC, les chercheurs auront besoin de machines de 8 à 512 coeurs environ. Des configurations qui ne manquent pas sur le plateau de Saclay avec entre autres les installations d'Intel et du CEA. Mieux préparer les processeurs de demain L'étude des applications de HPC permettra de mieux préparer les processeurs de demain à l'aune de ce type d'applications, mais aussi d'accompagner le développement de ces dernières afin qu'elles exploitent au mieux les architectures. Bien entendu, « le lien entre les deux est aussi le modèle de programmation », insiste Philippe Thierry. Dans le calcul scientifique, ce sont des standards établis comme C, C++ et Fortran, ainsi que les librairies MPI et OpenMP pour le parallélisme qui sont utilisés. Les recherches du centre Intel concerneront aussi les environnements de développement. Les statuts, le budget du centre, les ressources humaines ainsi que les autres détails de son fonctionnement devraient être dévoilés à l'automne 2009. (...)

(13/02/2009 18:37:17)

Annuels Bull : Le groupe français en progression reste prudent en 2009

Le groupe français Bull a présenté des résultats en progression par rapport à l'an dernier. Le chiffre d'affaires de l'entreprise a progressé de 1,4% pour atteindre 1,13 Md€ alors que le bénéfice de 5,6 M€ a augmenté de 21,7%. Didier Lamouche, PDG de Bull, rappelle dans son communiqué que le groupe a « adopté une segmentation qui reflète mieux [ses] activités ». Ainsi, les services et les solutions ont crû de 14,7% sur l'année, et le matériel et les systèmes de 5,6%. La maintenance a, en revanche, reculé de 6,8%. Didier Lamouche a précisé que les services représentaient désormais 44% du CA, que la moitié des clients provenaient des secteurs publics et télécoms et que près de 20% du CA était réalisé dans les pays émergents. Il a également rappelé que l'entreprise s'était défaite d'activités non stratégiques, comme Medicaid aux Etats-Unis, pour se renforcer sur des segments jugés plus porteurs comme le calcul haute performance. 2008 a été émaillée de plusieurs succès dans le domaine comme la commande passée par le Genci et un contrat renouvelé avec le CEA. Comme la plupart des acteurs du marché face à la crise, Bull reste prudent sur ses objectifs 2009. « Nous poursuivrons les réductions de coûts adéquates et accélérerons notre travail de transformation autour de nos axes stratégiques. » (...)

(05/02/2009 15:12:34)

Gartner : les entreprises doivent se préparer au retard du logiciel sur le matériel dans les serveurs

Le Gartner s'inquiète. Les serveurs évoluent beaucoup trop rapidement pour le logiciel. Les puces comptent un nombre de plus en plus important de coeurs. Qui plus est, ces coeurs gèrent souvent chacun plusieurs threads (instructions élémentaires). Dans le monde du x86, de deux coeurs, on est passé à quatre, et on annonce bientôt huit. Or, le multicoeur n'est pas forcément synonyme de performances améliorées, au contraire ! Car les logiciels restent à la traîne. Très à la traîne. Systèmes d'exploitation, hyperviseurs, middlewares et applications sont loin de tirer parti de toute la puissance proposée par les serveurs multicoeurs. Deux coeurs dans un processeur ne donnent pas deux fois plus de puissance. Pire encore... Carl Claunch, analyste pour le Gartner, spécialiste des infrastructures serveurs, prévient : dès qu'on dépasse deux coeurs, on peut très bien voir la performance décroître ! Le surplus de travail imposé au système par la gestion de quatre coeurs, par exemple, peut induire un tel phénomène. L'analyste estime qu'un nombre significatif d'entreprise est déjà touché et qu'il ne va cesser d'augmenter. Les hyperviseurs sont de toute façon limités à quelques dizaines de coeurs Dans deux ans, selon Carl Claunch, on devrait déjà voir apparaître des serveurs équipés de 512 coeurs au total (32 sockets hébergeant chacun 16 coeurs). Dans quatre ans, ils en accueilleront le double... Or, l'analyste rappelle que la plupart des hyperviseurs ne peuvent dépasser 64 puces. Selon lui, ESX de VMware se limite à 32 coeurs et Hyper-V de Microsoft à 24. Du coté des OS, si Linux et Windows ne dépassent pas 64 coeurs à base de x86, z/OS atteint tout juste 64 et les Unix, moins limités, supportent entre 128 et 512 puces suivant l'éditeur. Pour adapter un logiciel à une configuration multicoeur, il ne suffit pas, comme on pourrait le croire, de découper le code en plusieurs parties pour le répartir sur les puces. « Diviser le logiciel en deux ou en quatre morceaux, n'est pas très compliqué, confirme Carl Claunch. Mais quand on passe à 128 ou 256 coeurs, c'est une autre question. » D'autant que, comme le précise l'analyste, il faut aussi équilibrer ces 'morceaux' de code pour qu'ils se répartissent judicieusement sur les coeurs du processeur. Le principe même de la parallélisation, du multithreading, de la répartition de tâches... L'industrie fait des efforts pour faciliter le portage des applicatifs [[page]] Bien sûr, l'industrie informatique, celle du matériel comme celle du logiciel, travaille dur pour sortir de ce qui ressemble fort à une impasse. Ainsi, Intel et Microsoft ont tous deux rendu disponible un ensemble d'outils facilitant le travail des développeurs. « Il faut dire qu'aucun fournisseur n'a intérêt à voir réduire le taux de renouvellement des machines en entreprise ! » rappelle Carl Claunch. Les utilisateurs pourraient en effet décider de ne pas changer de matériels, pour éviter les problèmes. Les laboratoires de recherche universitaire se penchent eux aussi sur ces questions de portage. Tous s'appuient aussi, bien entendu, sur les travaux réalisés durant des décennies par le monde du HPC (calcul haute performance), même s'ils ont été menés dans des contextes très différents. « Pour l'instant, persiste cependant Carl Claunch, il n'existe pas de solution unique et simple au développement de logiciel parallélisé. » Les entreprises doivent se préparer à une migration permanente des logiciels En résumé, il faudra des mois, voire des années, pour que le logiciel rattrape son retard sur le matériel. D'autant que les constructeurs ne vont pas stopper les évolutions de leurs serveurs pour attendre le logiciel. C'est pourquoi Carl Claunch conseille aux entreprises utilisatrices de se préparer à entrer dans une période de migration permanente de leurs logiciels. « Elles ne pourront plus stabiliser les installations durant 5 ou 6 ans comme avant. » « Les entreprises étaient habituées à migrer des versions de logiciel inchangées d'une infrastructure vers une autre. Ce ne sera plus possible. En conséquence, le cycle de vie du logiciel sera de plus en plus court. » Les utilisateurs devront investir davantage de budget dans les nouvelles versions et se doter de ressources plus importantes pour la maintenance. En ces temps de crise, ce genre de conseils risque de ne pas être très bien accueilli. « Pourtant aujourd'hui, il n'y a pas beaucoup d'autre solution, note cependant Carl Claunch. Quand un éditeur sort un système d'exploitation serveur, celui-ci va durer près de dix ans. Et il devra donc s'adapter à toutes les infrastructures qui sortiront durant cette période. Il faudrait que le fournisseur écrive son OS en anticipant ces machines, y compris celles dont on ne connaît absolument rien aujourd'hui... Impossible. » (...)

(04/02/2009 12:56:15)

Le plan de relance du gouvernement inclut les grands centres de calcul

Le premier ministre François Fillon a présenté le 2 février à Lyon les 1 000 projets qui bénéficieront du plan de relance de l'économie annoncé en décembre dernier par Nicolas Sarkozy, président de la République Française. Les TIC ne sont pas directement impliquées, en dehors du financement de très grandes infrastructures de recherche (TGIR) et du soutien aux PME innovantes. Sur les 26 Md€ de crédits prévus, 4 Md€ sont destinés à un programme exceptionnel d'investissement public. 1,1% de cette enveloppe, soit 46 M€, sera consacré au financement de très grandes infrastructures de recherche. 1,75% (70 M€) viendra par ailleurs soutenir l'investissement dans les nanotechnologies. Ces financements représentent tout juste 0,18% et 0,27% du total de 26 Md€ de crédits prévus. Des crédits pour le Ganil et le Genci Ainsi, en Basse-Normandie, le Ganil (Grand accélérateur national d'ions lourds) bénéficiera d'un crédit de 4 M€. En Ile-de-France, le financement de TGIR totalise 27,3 M€. Parmi les opérations retenues figurent le Genci -grand équipement national de calcul intensif (2,6 M€), LLB-Orphee -spectromètre à neutrons (1,8 M€), Soleil -rayonnement synchrotron (6 M€), Renater -réseau national de télécommunication scientifique (1 M€), le CCRT et IDRIS -centres de calcul intensif (2 M€ et 1 M€), ou encore Neurospin -neuro-imagerie cérébrale (2 M€). Dans la région PACA (Provence-Alpes-Côtes d'Azur), le plan de relance a retenu l'ITER -installation expérimentale de fusion. Le crédit accordé s'élève à 5 M€. Et en Rhône-Alpes, 4 M€ sont répartis entre l'ESRF -rayonnement synchrotron (1,8 M€) et le centre de calcul intensif IN2P3 (2,2 M€). Dans la liste des opérations retenues figurent aussi Adonis -réseau numérisé de données SHS (1 M€). La capacité d'intervention d'Oseo Garantie étendue à 4 Md€ de plus [[page]] Le plan de relance prévoit aussi un soutien exceptionnel à l'activité économique et à l'emploi qui inclut des actions pour aider les PME et TPE. Ces mesures, qui ont été en partie détaillées le 4 décembre dernier prévoient 700 M€ d'aide à l'embauche dans les très petites entreprises. Parmi les autres apports du plan en faveur des PME innovantes, l'établissement public Oseo voit sa capacité d'intervention augmentée. Il peut garantir 4 Md€ de prêts supplémentaires, en plus des 5 Md€ qu'il pouvait déjà garantir ou réaliser depuis l'annonce, début octobre, du déblocage de 22 Md€ en faveur du financement des PME. Rappelons que les 17 Md€ restant proviennent des livrets de développement durable et d'épargne populaire et qu'un médiateur, René Ricol, a été nommé afin de s'assurer que ces crédits iraient effectivement aux PME et TPE. C'est vers lui que peut se tourner tout chef d'entreprise ou entrepreneur individuel qui rencontrerait des difficultés de financement auprès de sa banque. Un site Web propose des dossiers types pour faciliter les demandes de médiation : www.mediateurducredit.fr Paiement à 60 jours fin de mois depuis le 1er janvier 11,4 Md€ seront remboursés aux entreprises, pour « desserrer les contraintes pesant sur leur trésorerie, dans le cadre des dispositions prises par la loi de finances rectificative pour 2008 » et 11,1 Md€ passeront par des interventions directes de l'Etat comme le remboursement des créances au titre du crédit d'impôt recherche ou encore la mensualisation du remboursement des crédits de TVA. Rappelons par ailleurs que, depuis le 1er janvier, la loi prévoit que toute facture émise en France soit réglée sous 60 jours, et non plus 60 jours « fin de mois ». (...)

(03/02/2009 18:20:07)

Le gouvernement américain commande un supercalculateur de 20 Pflops à IBM

Le gouvernement américain aurait commandé à IBM pour le DOE (Département de l'énergie) un supercalculateur d'une puissance de 20 Pflops (20 milliards de millions d'instructions par seconde) avec 1,6 millions de coeurs. Sequoia, c'est son nom, hébergera sur une surface un peu plus importante que celle d'un terrain de tennis, 96 racks équipés des Bluegene/Q du constructeur, encore en cours de développement, et tournera sous Linux. Ces modules spécialisés dans le supercalcul s'appuient sur l'architecture de processeur Power d'IBM. La machine sera installée au Laboratoire national Lawrence Livermore en Californie à partir de 2011 et mise en route l'année suivante. Elle servira en priorité à gérer les stocks d'armes nucléaires vieillissantes dont elle simulera la stabilité et le niveau de sécurité. Une consommation électrique seulement trois fois supérieure à celle de son prédécesseur Pour IBM, les défis d'une telle infrastructure résident entre autres dans la gestion des sous-systèmes d'administration destinés à automatiser les tâches et dans la fourniture aux administrateurs de moyens adaptés au suivi de l'imposante charge de calcul. Enfin, Sequoia devrait se contenter de 6 megawatts contre 1,8 pour le système actuel du laboratoire. Avant de passer à Sequoia, IBM fournira un autre supercalculateur au laboratoire californien du gouvernement. Plus modeste, Dawn sera bâti sur la même architecture BlueGene/P et atteindra 500 Tflops. Il servira de base de travail pour l'élaboration de son successeur. Avant Dawn et Sequoia, le calculateur BlueGene le plus puissant, déjà propriété du Lawrence Livermore, affichait une puissance de 478,2 teraflops. Roadrunner, le système le plus imposant du monde avec 1,1 Pflops, est quant à lui un produit hybride mixant les architectures Cell conçues entre autres par IBM avec des Opteron d'AMD. Le DOE a préféré Bluegene à cette option pour des questions de portage d'applications. (...)

(15/01/2009 16:34:58)

Le projet d'astrophysique Planck s'offre un supercalculateur de plus de 12 Tflops

L'Institut d'Astrophysique de Paris (IAP) s'est doté d'un tout nouveau centre de calcul pour le projet Planck. Le satellite, qui a pris le nom du célèbre physicien, a pour vocation d'observer la lumière émise par l'univers tel qu'il était il y a plus de 13 milliards d'années, soit 380 000 ans après sa naissance. C'est la masse de données issue de ces observations (500 milliards de données brutes) qui devra être stockée et traitée par le biais des serveurs de l'IAP. HP, SGI et Sun ont répondu à l'appel d'offre, mais c'est IBM et son partenaire Serviware qui l'ont emporté. Si en termes techniques, les configurations se sont révélées assez proches les unes des autres, l'IAP, qui pilote pour le projet pour le compte de l'Agence spatiale européenne, a opté pour la prestation de service de Big Blue. Sur des pièces vitales comme le commutateur Voltaire (qui assure l'interconnexion des noeuds du cluster), Serviware s'engage à résoudre le problème dans la journée. Sur des éléments moins cruciaux, il intervient au pire le lendemain (J+1). Il faut dire que la moindre panne sur la machine revient à gâcher le temps de fonctionnement d'un satellite dernier cri... Les chercheurs voulaient un système économe, intégré et avec un système de fichiers fiable Pour la troisième mouture de leur centre de calcul, les chercheurs ont listé trois exigences principales. Pour commencer, il fallait un système clé en main sur lequel les chercheurs n'auraient pas à intervenir avec le niveau de service idoine. Ensuite, la configuration choisie devait entrer dans une enveloppe thermique et énergétique finie, puisque la salle machine de l'Institut n'est en aucun cas extensible. Selon Philippe Parnaudeau, le système IBM installé devrait dépenser 50 kW à plein régime sachant qu'il fonctionnera plutôt entre 60 et 70% de ses capacités. Enfin, dernière exigence, le système de fichiers devait être capable de gérer les masses de données issues du satellite de la façon la plus fiable possible. Le précédent calculateur s'appuyait sur le système Open Source Lustre. Mais Philippe Parnaudeau, chargé du cahier des charges et de l'infrastructure, précise que ce dernier « n'était pas assez mature lorsque [nous] l'avons testé ». Pour ces raisons, l'institut lui a donc préféré GPFS, le système de fichiers parallèle d'IBM. Un cluster de 132 noeuds, avec 128 To de stockage rapide Le système est un cluster iDataplex de 132 noeuds à base de quadri-coeurs Xeon E5472 à 3 GHz d'Intel (12Gflops par coeur, un cache de niveau 2 de 12 Mo, moins de 80W par processeur). Cette offre d'IBM, qui promet une puissance de plus de 12 Tflops, est destinée en particulier à réduire la consommation électrique et la dissipation de chaleur. C'est un commutateur Infiniband qui assure à la fois le passage de messages dans le cluster (MPI) et les échanges de données. Il assure une bande passante de 11,52 Tbps avec une latence de 420 ns. Le système de stockage rapide DCS 9900 d'IBM compte 160 disques pour une capacité utile de 128 To. Une configuration de stockage lente NFS lui ajoute 220 To. (...)

(07/01/2009 12:40:51)

Infiniband réussit haut la main le test de la longue distance

Le protocole Infiniband est couramment utilisé pour la connexion de clusters de serveurs dans les datacenters ou les supercalculateurs. Il a été conçu pour assurer une communication simple et efficace sur courte distance. Pourtant, selon le site américain Goverment Computer News, des chercheurs du département de l'énergie du laboratoire Oak Ridge National (ORN) ont testé le protocole entre deux machines distantes de près de 14 000 km en soutenant un débit moyen de 7,34 Gbps. Le même essai réalisé sur HTCP (Hyper Text Caching Protocol) n'a jamais permis de dépasser 1,79 Gbps. Plus précisément, les chercheurs ont constaté que le débit sur HTCP, élevé au départ (9,21 Gbps sur 300m), s'est dégradé à mesure que la distance s'est allongée. Le débit Infiniband est, lui, resté relativement constant. Les tests ont été réalisés sur une liaison optique à 10 Gbps dédiée, qui relie Oak Ridge dans le Tennessee et Sunnyvale en Californie, en passant par Atlanta, Chicago et Seattle. Les chercheurs concèdent à ce propos que l'utilisation d'une ligne spécialisée a défavorisé HTCP. TCP/IP a en effet été conçu pour le partage de trafic. Le laboratoire a utilisé à chaque extrémité du réseau des commutateurs Infiniband de la gamme Longbow de Obsidian Research. La société s'attèle justement à proposer une utilisation longue distance du protocole. Avec le succès des environnements de simulation entre autres, les grands laboratoires de recherche et leurs supercalculateurs ont de plus en plus besoin d'échanger des quantités massives de données sur longue distance. Le Cern (Organisation européenne pour la recherche nucléaire) à Genève, par exemple, va échanger dans le monde entier les petaoctets de données issus des expériences de l'accélérateur de particules LHC (Large hadron collider). Or, TCP/IP ne donnerait pas toujours satisfaction dans de telles conditions en termes de débit autant que de fiabilité du transfert. Toutes les solutions de rechange comme Infiniband sont ainsi les bienvenues. (...)

< Les 10 documents précédents