Flux RSS

HPC

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

138 documents trouvés, affichage des résultats 71 à 80.

< Les 10 documents précédentsLes 10 documents suivants >


(22/11/2010 12:20:18)

IBM en tête du Green500

Tandis que la Chine a pris la tête de la liste mondiale des supercalculateurs les plus puissants, l'Américain IBM s'est de son côté distingué dans la catégorie des systèmes présentant la consommation d'énergie la plus efficace par rapport à leur puissance de calcul. La prochaine génération de Blue Gene d'IBM, le supercalculateur Blue Gene/Q, arrive à la première place du Green500 publié la semaine dernière.

Le Blue Gene/Q est 165% plus efficace que le supercalculateur chinois Tianhe-1A qui occupe la première place du Top500 publié mi novembre. Et il est 77% plus efficace que le système qui le suit immédiatement au Green500, le Tsubame 2.0 de l'institut de technologie de Tokyo. En termes de données brutes, il a été constaté que le Blue Gene/Q exécutait 1,684 megaflops par watt, alors que le Tsubame 2.0 affiche 948 megaflops par watt. A la troisième place du classement figure encore un système américain. Il s'agit de l'EcoG du NCSA (National Center for Supercomputing Applications), avec 933 megaflops par watt.

1 milliard de watt d'ici dix ans si rien n'est fait


Cette liste fait apparaître que les supercalculateurs les plus puissants ne font pas nécessairement le meilleur usage de l'énergie consommée. Au chapitre des performances pures, le pic de performance atteint par le Blue Gene/Q, par exemple, plafonne à 653 teraflops en comparaison des 2,57 petaflops du Chinois Tianhe-1A. En revanche, l'efficacité énergétique de ce dernier ne dépasse pas les 635 megaflops par watt, ce qui le place à la onzième place du Green500.

L'idée de ce classement a pris forme en 2005, à l'instigation du chercheur en informatique, Wu-chun Feng, directeur du laboratoire Synergy de l'Université Virginia Tech. Deux ans plus tard, la première liste sortait, avec l'objectif d'attirer l'attention sur l'augmentation de la consommation d'énergie des supercalculateurs. Wu-chun Feng considère que l'efficacité énergétique doit être prise en compte dans les contraintes de conception des systèmes. Dans une interview accordée à nos confrères d'IDG News Service, le chercheur signale qu'à la fin de la décennie, si la conception des systèmes ne change pas de trajectoire, le supercalculateur de pointe consommera un gigawatt (un milliard de watts). Par ordre de comparaison, l'état de New-York a lui seul consomme une moyenne de 62 gigawatts par an.

IBM exploite sa puce PowerXCell


Le Green500 est mis à jour deux fois par an. La participation des candidats est volontaire et le classement repose sur le nombre d'opération en virgule flottante exécutées par watt d'électricité. Seuls les ordinateurs figurant dans le Top500 sont pris en compte.

La dernière liste montre que l'utilisation des processeurs graphiques (GPU) constitue une façon d'augmenter la puissance qui se trouve être relativement peu gourmande en énergie. Ainsi, quatre des dix premiers utilisent des GPU Nvidia, ce qui aurait été impensable il y a quelques années.

Le Blue Gene/Q d'IBM n'intègre pas de GPU. Il s'appuie sur un autre type de carte d'accélération, basée sur sa puce PowerXCell. Pour le professeur Wu-chun Feng, 2010 peut être considérée comme 'l'année de l'accélérateur'. « C'est une plateforme informatique alternative qui convient bien à des tâches différentes. L'autre avantage, c'est qu'il se trouve qu'elle présente un très bon rendement énergétique ».

(...)

(18/11/2010 11:08:54)

Microsoft transforme Windows Azure en supercalculateur

Le premier Service Pack pour Windows HPC Server 2008 R2, sera livré avant la fin de l'année. Il permettra aux clients de connecter leurs systèmes informatiques haute performance situés sur site à Windows Azure, lequel apporte « une offre à la demande et des capacités pour des applications de calcul haute performance, » comme l'a précisé Microsoft. L'entreprise fournira aussi une ressource Azure pour les scientifiques qui n'ont pas besoin d'installer Windows HPC Server. Le service donnera la possibilité à la technologie BLAST utilisée par les scientifiques du National Center for Biotechnology Information travaillant dans la recherche sur le génome humain, de travailler sur Azure. Lors de la conférence SC10, la firme de Redmond doit d'ailleurs faire la démonstration de l'application NCBI BLAST sur Windows Azure, et montrer comment elle effectue 100 milliards de comparaisons de séquences de protéines sur son système.

Selon l'éditeur, l'intégration du nouveau Service Pack Windows HPC à Azure introduit une différence de taille entre son système et les systèmes comparables comme Elastic Compute Cloud d'Amazon : c'est le seul en effet à offrir possibilité de réaliser des calculs haute performance à la fois sur site et dans le service Cloud. « Amazon ou Google ne proposent pas de capacité de calcul sur site,» a déclare Bill Hilf, directeur général chargé de la technique informatique chez Microsoft. « C'est un avantage important en notre faveur », a t-il ajouté.

Le logiciel HPC est « simplement un répartiteur de tâche qui sait comment découper les charges et les distribuer à travers un ensemble de serveurs, » explique encore Bill Hilf. « L'intégration de Windows HPC Server à Azure permet au client d'un centre de calcul « de communiquer avec le système Windows Azure » et de choisir la manière dont il souhaite répartir la charge de travail entre les deux systèmes, » ajoute t-il. Cela a un sens pour les charges de travail qui présentent des pics importants en besoin de calculs mais temporaires.

Une initiative pas isolée


D'une certaine manière, Microsoft utilise le concept de « cloud-bursting, » c'est à dire la possibilité d'accéder automatiquement aux ressources informatiques du cloud quand les applications ont des besoin de puissance supplémentaire pour le traitement de leurs données, et l'applique au monde du calcul haute performance. « Cette demande pour le « cloud-bursting, » figurait en tête des attentes de nos clients HPC» a déclaré Bill Hilf.

En ce qui concerne NCBI BLAST, le directeur général fait remarquer que le code est dans le domaine public, mais affirme que la possibilité de réaliser des calculs BLAST sur le service Azure permettra aux scientifiques de lancer des quantités énormes de requêtes sans avoir à investir dans un matériel coûteux. « En plus du portage de BLAST dans Azure, Microsoft a développé des interfaces utilisateurs web afin de faciliter la mise en route des opérations de calculs, » a t-il fait savoir.

Le coût pour faire tourner BLAST sur Azure sera le même que pour exécuter n'importe quelle charge de travail. Plus le client utilise de la puissance de calcul, plus le prix augmente. Par exemple, la requête nécessaire à BLAST pour effectuer les 100 milliards de comparaisons, mobilisant 4 000 coeurs sur une période de six jours environ, a couté moins de 18 000 dollars. BLAST est la première application HPC offerte par Microsoft dans son service Azure, mais d'autres applications suivront, comme l'a déclaré le vendeur. Malgré l'absence d'autres offres spécifiques, Microsoft a indiqué que certains clients avaient déjà commencé à gérer leurs propres charges de travail HPC sur le cloud Azure.

(...)

(16/11/2010 16:15:01)

Un supercalculateur chinois a pris la tête du Top500

C'est fait. Le supercalculateur chinois Tianhe-1A a ravi au Cray Jaguar XT5-HE la première place du classement mondial Top500 des super-ordinateurs les plus puissants. Le système installé au National Supercomputer Center de Tianjin atteint une puissance de 2,57 petaflops/s, ce qui correspond à un million de milliards d'opérations par seconde (soit 10^15, un quadrillion en anglais), contre seulement 1,75 petaflops/s pour celui qu'il a détrôné.

L'arrivée en fanfare du Tianhe-1A en tête du Top500 rétrograde de fait à la troisième place un autre système chinois, le Nebulae installé au National Supercomputing Centre de Shenzhen, dont la puissance de calcul s'établit à 1,27 petaflops/s.

Le quatrième supercalculateur le plus puissant du monde est installé au Japon. Il s'agit du Tsubame 2.0 de l'Institut de technologie de Tokyo qui affiche 1,19 petaflops/s. C'est le seul représentant nippon du Top10, notent les auteurs de ce classement qui soulignent aussi qu'en six mois, le dernier entrant de la liste atteint tout de même 31,1 teraflops/s, c'est-à-dire un millier de milliards d'opérations par seconde selon le benchmark Linpack. Une performance à comparer aux 24,7 Tflops/s du dernier de la liste au semestre dernier.

Efficacité énergétique pour le Blue Gene/Q d'IBM

Autre élément de comparaison attestant de l'augmentation de la puissance globale : la lanterne rouge de la liste publiée ce mois-ci occupait en juin dernier la 305e place. La performance combinée des cinq cents systèmes figurant dans ce classement semestriel a franchi les 44 Pflops/s (44,2). Une puissance à comparer aux 32,4 Pflops/s atteinte en juin dernier et aux 27,6 Pflops/s réunis il y a un an.

Le Top500 délivre aussi des indications sur la consommation électrique de ces supercalculateurs. Si celle-ci augmente, l'efficacité énergétique des systèmes aussi. Seuls 25 d'entre eux utilisent une puissance électrique supérieure à un megawatt (MW). Le nouveau Blue Gene/Q d'IBM se distingue avec une efficacité moyenne de 195 Mflops par watt contre seulement 150 Mflops par watt l'an dernier. La consommation électrique moyenne du Top10 augmente doucement à 3,2 MW contre 2,89 MW il y a six mois. Toutefois, l'efficacité énergétique moyenne de ces dix systèmes, les plus puissants du monde, s'établit à 268 Mflops/watt alors qu'elle était de 300 Mflops/watt au dernier semestre.

Illustration : classement Top500. Le supercalculateur de Tianjin (crédit photo : Nvidia pour le Tianhe-1A)

(...)

(16/11/2010 15:28:03)

EC2 d'Amazon intègre des instances GPU pour du calcul intensif

AWS (Amazon Web Services) a ainsi ajouté une nouvelle instance Cluster GPU à sa plate-forme Elastic Compute Cloud (EC2). L'entreprise espère ainsi attirer vers son service des applications gourmandes en calculs comme le rendu et les médias (vidéo, musique, etc...). Le système offre aussi les avantages liés à l'usage du cloud, à savoir qu'il permet d'économiser sur l'achat, la configuration et l'exploitation de clusters de calcul en interne, et de s'affranchir de leur mise en oeuvre qui répond à des processus souvent complexes, comme le précise Amazon. Le « Quadruple Cluster GPU Extra Large Instance» mis en place par Amazon est associé à deux GPU Nvidia Tesla M2050 « Fermi », dotés chacun de 448 coeurs et de 3 Go de RAM. Il peut réaliser plus d'un milliard d'opérations en virgule flottante par seconde. D'après le descriptif posté sur le blog de AWS, l'instance est également dotée de deux processeurs quad-core Intel X5570 Xeon, 22 Go de RAM et offre une capacité de stockage de 1690 Go en local.

Des tarifs évolutifs

Chaque compte Amazon Web Services peut utiliser jusqu'à huit instances GPU dans un cluster, les noeuds communiquant en 10 Gigabit Ethernet. Aujourd'hui, les utilisateurs souhaitant disposer de cluster plus grands doivent demander l'autorisation d'Amazon. « Le réglage par défaut est là pour aider AWS à mieux comprendre les besoins de ses clients pour cette technologie, mais n'est en rien une limitation liée à son usage, » indique l'éditeur. Le paramétrage par défaut similaire, existant préalablement sur son cluster standard, a été désactivé, indique par ailleurs le blog. Pour tirer pleinement partie des GPU, les applications devront être compatibles avec l'architecture de calcul parallèle CUDA de Nvidia. Les utilisateurs peuvent, soit payer 2,10 dollars de l'heure ou réserver une instance. Dans ce cas ils devront payer des frais initiaux de l'ordre de 5 630 dollars pour un contrat d'un an, plus un taux horaire réduit de 0,74 dollar précise Amazon à titre d'exemple. Ces capacités de calcul via GPU peuvent tourner sous Linux 64-bits. Ils ne sont pour l'instant accessibles que sur le site d'Amazon situé en Virginie du Nord.

(...)

(15/11/2010 17:01:15)

Stockage : EMC acquiert Isilon

La consolidation dans le secteur du stockage bat son plein. L'année 2010 a été riche en acquisition et la fin de l'année ne dément pas ce dynamisme. Au coeur des mouvements, EMC revendique depuis 1 semaine la palme de la gourmandise avec deux acquisitions. La plus récente concerne le rachat d'Isilon, spécialiste du stockage en cluster pour des clients à fort volume de données (notamment les chaînes de télévision, mais aussi les scientifiques à travers le décodage du génome par exemple). Le prix de l'acquisition est de 2,25 milliards de dollars. Pour mémoire, HP a racheté 3Par pour 2,4 milliards de dollars au mois de septembre dernier.

Sur les termes financiers, EMC va racheter des actions Isilon au prix de 33,85 dollars. Les discussions pour cet accord avaient été dévoilées par la presse économique américaine au mois d'octobre dernier. Dans le communiqué commun, EMC souhaite que l'opération se finalise avant la fin de cette année. Sur le plan technique, la société de Hopkinton devrait coupler Atmos et les solutions d'Isilon pour fournir une infrastructure de sauvegarde dédiée à la gestion des « Big Data ». Cette activité pourrait représenter jusqu'à 1 milliard de dollars au second semestre 2012. Pour Joe Tucci, PDG d'EMC, « les vagues inéluctables du cloud computing  et des données massives, sont une réalité. Les clients recherchent donc de nouveaux moyens pour stocker, protéger, sécuriser et ajouter de l'intelligence à l'énorme quantité d'informations qu'ils accumuleront au cours de la prochaine décennie. EMC, en combinaison avec Isilon, se situe au carrefour de ces tendances avec des produits de premier plan. »

Bus Tech auparavant


Il y a moins d'une semaine, EMC avait annoncé l'acquisition de Bus-Tech. Cette dernière, basée à Bedford, dans le Massachusetts, fournit des VTL (Virtual Tape Library), un système de stockage comprenant un serveur, plusieurs disques et un logiciel émulant cet espace disque en bande magnétique. Bus-Tech propose des solutions à destination des mainframes, elle concurrençait directement IBM dans la sauvegarde des données sur les grands systèmes.

Le montant de cette transaction n'a pas été annoncé. Bus-Tech sera intégré à la division « Backup Recovery System » d'EMC.

(...)

(03/11/2010 17:21:56)

Une université américaine mise sur les I/O pour les supercalculateurs

Cette conception serait mieux adaptée à l'extraction de données reposant sur les charges de travail traitées par les superordinateurs actuels, a fait valoir Alexander Szalay, un informaticien et astrophysicien de l'Institut Data Intensive Engineering and Science de Johns Hopkins, et qui dirige le projet. « Pour les sciences, ce sont les I / O qui deviennent le principal goulet d'étranglement», a-t-il expliqué. « Les gens réalisent des simulations plus en plus grandes et gourmandes en terme de mémoire, il est difficile d'écrire la sortie sur le disque."

La National Science Foundation (NSF) a financé à hauteur de 2,1 millions de dollars ce système, appelé Data-Scope. L’université contribue elle-même pour 1 million de dollars. Jusqu'à présent, 20 laboratoires de recherches au sein de l’université ont indiqué qu'ils pourraient utiliser le système pour étudier les problèmes de la génomique, la circulation océanique, les turbulences en astrophysique et science de l'environnement. La faculté autorisera aussi les organismes extérieurs l’utilisation de la machine. La mise en fonction officielle de Data-Scope est  prévue au mois de mai prochain.

Changer de paradigme

FLOPS mesure la quantité de calculs en virgule flottante qu'un ordinateur peut faire en une seconde, un outil essentiel pour analyser de grandes quantités de données. Mais l’indicateur IOPS mesure la quantité de données qui peut être déplacée sur et en dehors d'un ordinateur.

En maximisant l'IOPS, le système «permettra des analyses de données qui ne sont tout simplement pas possible aujourd'hui», soulignent les universitaires. Aujourd'hui, la plupart des chercheurs sont limitées à l'analyse d’un ensemble de données allant jusqu'à 10 téraoctets, tandis que ceux qui comprennent 100 téraoctets ou plus, ne peuvent être étudiés que par une poignée des plus grands supercalculateurs. La configuration matérielle proposée par John Hopkins de pourrait offrir un moyen moins coûteux d'analyser ces données volumineuses, explique Alexander Szalay

La machine, une fois construite, aura une capacité de bande passante pour les I/O de 400 à 500 giga-octets par seconde, soit environ deux fois plus que de l'ordinateur le plus rapide, Jaguar du laboratoire national Oak Ridge, inscrit au classement des 500 meilleurs ordinateurs les plus puissants du monde. Data-Scope, cependant, propose une performance de pointe d'environ 600 teraflops, loin derrière les capacités du Jaguar estimées à 1,75 pétaflops.

Dans la conception de Data-Scope, chaque serveur aura 24 disques durs dédiés ainsi que 4 SSD, qui au total pourront fournir 4,4 Go de données par seconde gérées par deux GPU (processeurs graphiques). Globalement, le système comprendra environ 100 de ces machines pour environ cinq pétaoctets de stockage au total.

Revenir aux fondamentaux

Pour guider la conception, l'équipe de chercheurs est partie de la loi de  l'informaticien Gene Amdahl, qui explique qu’une instruction par seconde requiert un octet de mémoire et un bit/seconde de capacité d'entrée-sortie. La plupart des architectes des supercalculateurs semblent avoir méconnu ce principe, qui prévoit que le cache du processeur peut stocker des données et les utiliser en cas de besoin. Maintenant que les données ont pris une telle envergure, la règle d'Amdahl devrait être reconsidérée, soutient Alexander Szalay.

Les concepteurs ont également l'intention de faire quelques changements dans la façon dont les bases de données sont utilisées. « Nous n'utilisons pas la base de données comme dépotoir de stockage, mais comme un environnement informatique actif», a déclaré le responsable du projet. Au lieu de déplacer les données d'une base de données vers un cluster de serveurs, les chercheurs pourront écrire des fonctions et s’exécuteront directement dans la base de données elle-même.

Pour ce faire, les chercheurs utiliseront l'une des trois images qui peuvent être lancée sur le système: Windows Server 2008, une combinaison de Linux et MySQL et une troisième instance travaillera sur  Hadoop.

(...)

(28/10/2010 14:45:33)

Un supercalculateur chinois revendique une puissance de 2,5 pétaflops

Situé au centre national de calcul intensif de Tianjin, le supercalculateur Tianhe-1A utilise pas moins de 7 168 puces graphiques Nvidia Tesla M2050  et 14 336 processeurs Intel Xeon six coeurs. Construit par l'Université Nationale des Technologies de Défense, « ce système le plus rapide en Chine et dans le monde à ce jour » pérore un communiqué de presse de Nvidia. S'il offre une capacité de calcul de 2,5 pétaflops (un pétaflop équivaut à un million de milliards d'opérations par seconde), mesurée par le benchmark Linpack, il aurait un rendement théorique de 4,669 pétaflops lorsque tous les GPU sont opérationnels, assure un porte-parole de Nvidia. Les benchmarks ont été fournis par le National Supercomputing Center en Chine, a-t-il ajouté.

Ces dernières années, la Chine a rapidement gravi les échelons du petit monde des super calculateurs. Le dernier Top500 des superordinateurs les plus rapides, publié en juin, plaçait déjà le supercomputer Nebulae du National Supercomputing Centre de Shenzhen sur la deuxième marche du podium.

Le Cray Jaguar toujours en tête du Top500


Toujours selon ce classement, le superordinateur le plus rapide dans le monde est le système Cray Jaguar du Département américain de l'énergie au laboratoire Oak Ridge qui fournit une capacité de travail de 1,76 pétaflop (voir illustration ci-dessous). Rappelons que la barrière du pétaflops a été franchie en 2008 seulement par le supercalculateur Roadrunner d'IBM. Le Tianhe-1A a été annoncé deux semaines avant la sortie du prochain classement Top500, il est donc encore trop tôt pour dire s'il sera bien le système le plus rapide sur la liste.



La Chine cherche à renforcer ses ressources en calcul et fonde beaucoup d'espoirs sur ses travaux sur les  supercalculateurs hybrides, a déclaré Nathan Brookwood, analyste chez Insight 64. Un certain nombre de superordinateurs combinent aujourd'hui des CPU et des GPU pour améliorer les performances. Très spécialisés, les GPU sont plus rapides que les CPU traditionnels pour l'exécution de certaines tâches, comme celles utilisées dans les applications scientifiques et mathématiques.

Crédit photo : D.R.

(...)

(06/10/2010 10:27:51)

HP renforce sa stratégie infrastructure convergente

Comme le souligne en ouverture Dave Donatelli, exécutif vice-président en charge de l'activité Enterprise chez HP, « l'infrastructure convergente n'est pas qu'une simple vision, mais bien une plate-forme matérielle reposant sur les standards de l'industrie pour faciliter l'évolution des entreprises vers une infrastructure plus efficace. Et aujourd'hui le choix des infrastructures a un impact sur la façon dont sont déployés les services ». Si en 2009, HP avait lancé son programme « Converged infrastructure », le rachat et l'intégration de 3Com ont apporté à la compagnie la dernière brique à ses solutions. Désormais, HP se fixe un objectif ambitieux pour 2013 avec une projection de chiffre d'affaires de 115 milliards de dollars pour l'activité Datacenter avec une répartition de 35 milliards pour le stockage, 30 pour le réseau et 50 pour les serveurs. « Nous pouvons dire aujourd'hui que les entreprises sont en train de changer et de mettre en place des datacenters de nouvelles générations. »


Une ligne d'assemblage de POD HP à Houston.

Pour ce faire, HP mise notamment sur son activité POD (Performance Optimized Datacenter), des containers sur mesure de 6 ou 13 mètres. À la question de savoir combien de POD ont été vendus à ce jour, tous les dirigeants de HP interrogés ont refusé de fournir la moindre réponse. On saura juste que l'usine de Houston peut travailler au rythme de 7 conteneurs à la fois par mois et celle qui se trouve en Écosse à raison de 2 par mois. Cette dernière ligne de production est d'ailleurs en cours de transfert à Kora Hutna, en République Tchèque, nous a précisé Wolfgang Wittmer, senior vice-président pour l'activité Enterprise. Les clients présents sur l'événement ont d'ailleurs visité avec un grand intérêt un baby POD (6 mètres pour 10 armoires) stationné près du centre de congrès et collé à un groupe électrogène. « Les datacenters sont devenus un enjeu stratégique pour les entreprises qui construisent rarement plus de deux centres de calcul », explique Eva Scheck responsable de l'activité infrastructures pour l'Europe. « Nos clients sont très intéressés par notre structure modulaire offrant une très haute densité. Chaque POD étant configuré sur mesure en fonction des demandes des clients ».


Le baby POD de HP qui peut accueillir dix armoires standards.

Le réseau désormais au coeur de l'activité infrastructure

Marius Haas, senior vice-président en charge de l'activité réseau a poursuivi en présentant les fruits de l'intégration de 3Com. Le credo de HP est aujourd'hui très simple : « Oui, nous faisons du réseau » en mettant en avant des clients comme les hôtels Mariott, BMW Group, UPS ou Akamai. « L'intégration de 3Com est terminée et nous proposons un portefeuille complet de solutions reposant sur les standards du marché », poursuit Marius Haas en pensant très fort à Cisco. Le nouveau challenger de HP. Et pour marquer le coup, la firme de Palo Alto met en avant deux produits, Tipping Point AppDV (Application Digital Vaccine Service) et le E5400, une appliance télécom destinée aux PME.

Adossé à la plate-forme Tipping Point IPS du constructeur, l'AppDV renforce la sécurité des réseaux à des polices spécialement conçues pour les réseaux sociaux, une activité en hausse de 37% dans les entreprises et qui entraine une baisse de la productivité de 1,5% selon une étude Trend Micro publiée en juillet dernier. AppDV Control Access permet de filtrer les requêtes vers les principaux réseaux sociaux, de limiter la bande passante utiliser par les applications notamment Peer-to-Peer. Une fonction Digital Vaccin permet également de bloquer les tentatives d'intrusion exploitant les failles touchant les applications et les systèmes d'exploitation. Un sas virtuel bloque en outre les intrusions exploitant certaines failles tant que les patchs n'ont pas été testés ou pire n'ont pas encore été proposés par les éditeurs concernés. L'Université de Leeds exploite déjà cette solution pour protéger ses réseaux filaires et WiFi. « Nous prenons très au sérieux les problèmes de sécurité qui pourraient compromettre notre réputation. Et grâce au service Virtual Platform de Tipping Point nous pouvions bloquer les infections causées par un malware sans attendre les patchs », a témoigné le DSI de l'Université de Leeds.

[[page]]

Destinée aux petites et moyennes entreprises, l'appliance E5400 est la première incursion de HP sur le marché de la convergence réseau/télécom, chasse gardée de Cisco ou BlueCoat System. Commercialisée à partir de 8294 $, l'E5400 s'adapte aux besoins de clients avec plus ou moins de ports et fournit des services de téléphonie unifiée, de sécurité et bien sûr de réseau. Cette appliance repose sur de nombreux partenaires dont Avaya Aura, Citrix Netsacaler VPX, Microsoft Lync, NetScout nGenius et Riverbed Optimization System. Toutes ces solutions sont certifiées par HP sur son E5400.

Un serveur HPC haute densité

Les serveurs n'ont pas été oubliés avec l'annonce du châssis modulaire HPC Proliant SL6500 (à partir de 900 €) qui peut accueillir jusqu'à huit serveurs lames ou seulement quatre, mais avec l'adjonction de douze cartes graphiques nVidia Quadro par rack. Les serveurs qui peuvent intégrer ce châssis haute densité sont les Proliant SL390s G7 (à partir de 1289 $) et SL170s G6 ( à partir de 1 045 $) sur base Intel Xeon 5600. Avec un châssis qui peut intégrer un POD ou une salle informatique classique, HP propose une unité capable de fournir une puissance de calcul d'un Téraflops par rack, selon Mark Potter, vice-président de l'activité serveurs chez HP. Un Proliant SL6500 équipé de 77 GPU Nvidia fournirait une puissance de calcul de 77 Téraflops précise Mark Potter. « Et à Tokyo un laboratoire de recherche a déjà configuré un serveur SL390s qui est entré dans le Top 5 des supercomputers avec une puissance de calcul de deux Pétaflops », ajoute le dirigeant qui insiste sur l'encombrement réduit de sa solution (-77% en espace occupé) et sur les économies d'énergie réalisées (-71%). Ainsi selon les calculs de HP, ce serait près de 132 K€ qui pourraient être économisés sur un an par rapport à un système traditionnel. Une estimation difficile à vérifier même si les dernières générations de processeur et la densité accrue des serveurs améliorent significativement l'épineux problème de la consommation électrique. HP précise que son châssis s'intègre parfaitement pour le cloud computing, même s'il se destine avant tout aux marchés du calcul (finance, géologie...) et de la recherche scientifique.


Le châssis du Proliant SL 6500, à partir de 900 € sans les serveurs.


Illustration principale : Dave Donatelli, Mark Potter, Marius Haas et Wolgang Wittmer.

 

 

 


(...)

(28/09/2010 16:40:52)

France Grilles, une infrastructure de grille de production française

Le terme de grille informatique, ou grid en version anglaise, désigne des infrastructures informatiques et de communication électroniques ayant pour principe la globalisation des moyens informatiques et des données pour offrir aux utilisateurs de façon transparente des ressources très importantes, tant en capacité de stockage et de calcul, qu'en services. La France vient de se doter dans ce domaine d'un GIS (Groupement d'Intérêt Scientifique) baptisé France Grilles. Il regroupe le CEA, la Conférence des présidents d'universités (CPU), le CNRS, l'INRA, l'INRIA, l'INSERM, RENATER et le ministère de l'Enseignement supérieur et de la recherche. Si la création date du mois de juin dernier, l'inauguration officielle a eu lieu le 24 septembre dernier.

Les objectifs de ce groupement sont notamment d'établir une infrastructure nationale de grilles de production, pour le stockage et le traitement de données scientifiques massives, en coordonnant les efforts de chaque associé. La grille de production française rassemble aujourd'hui plus de 22 000 ordinateurs et 14 millions de Gigaoctets de stockage répartis dans 23 sites sur tout le territoire et ses ressources doublent tous les trois ans. Ses utilisateurs, au nombre de 800, sont des scientifiques ayant de très gros besoins de calcul dans des domaines comme la physique subatomique, les sciences du vivant et de la planète, etc.

Ces efforts doivent être coordonnés au niveau communautaire au sein de la grille européenne de production, EGI (European Grid Initiative), qui comprend 100 000 processeurs et 50 Petaoctets de capacités de stockage.

(...)

< Les 10 documents précédentsLes 10 documents suivants >