Flux RSS

HPC

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

138 documents trouvés, affichage des résultats 21 à 30.

< Les 10 documents précédentsLes 10 documents suivants >


(16/11/2011 14:44:17)

Intel dévoile sa puce HPC Knight Corner avec 50 coeurs (MAJ)

A l'occasion de la conférence SC11 (SuperComputing) à Seattle, Intel a montré pour la première fois sa puce connue sous le nom de code Knight Corner, qui comprend plus de 50 coeurs pour gérer des calculs haute performance. Le fondeur a aussi parlé de ses puces serveurs Xeon E5 qui vont bientôt arriver et sont basées sur la microarchitecture Sandy Bridge. Il a été question du processeur E5-2600 qui offre le double de performance par rapport à la puce serveur Xeon 5600 basée sur l'architecture Westmere, précise Joe Curley, directeur du marketing au sein du technical computing group chez Intel.

Les deux puces seront jumelées au sein d'un superordinateur appelé Stampede et qui sera déployé en 2013 au Texas Advanced Computing Center de l'Université du Texas. Le supercalculateur disposera d'une performance de 10 pétaflops (10 millions de milliards d'opération par seconde). Les processeurs E5 assumeront 20% de la performance du supercalculateur, tandis que les puces Knight Corner contribueront aux 80% restant, soit environ 8 Pétaflops.

Une puce confrontée à une forte concurrence

La puce Knight Corner combine des coeurs de processeurs standards x86 avec des coeurs spécialisés pour accélérer le calcul en parallèle. Intel précise que sa puce est la première à atteindre 1 téraflop en double précision (64 bits), ce qui donnera des résultats plus exacts. Gravée en 22 nanomètres, ce composant est un élément important dans stratégie d'Intel pour atteindre l'exascale computing en 2018, souligne Joe Curley. Ce concept informatique est un point essentiel dans plusieurs domaines, la médecine, la défense, l'énergie, etc. Des pays comme le Japon, la Chine et les Etats-Unis sont engagés dans une compétition pour arriver à des supercalculateurs atteignant l'exaflop. Cependant, les contraintes de conception et une importante consommation énergétique ont limité le développement des projets exaflopiques.

La puce Knight Corner repose sur l'architecture MIC (many integrated core), qui s'insère dans un emplacement PCI-Express. Cette architecture est considérée comme un accélérateur dans la même veine que les processeurs graphiques utilisés par les concurrents comme AMD ou Nvidia mais sans recourir à des technologies dédiées comme CUDA. Joe Curley indique que « MIC est une rupture dans les calculs parallélisés au sein des architectures de processeurs traditionnels, car vous pouvez réutiliser une grande partie du code. S'il faut modifier l'ensemble du code, votre système sera plus difficile à utiliser ». Sensible aux critiques portant sur la complexité de CUDA pour utiliser les GPU en calcul intensif, Nvidia a réussi à contourner ce problème en exploitant des directives, qui sont des « astuces » que les développeurs intégrent dans un compilateur pour identifier les zones où le code doit être accéléré. Le fondeur a annoncé cette semaine OpenACC, un standard ouvert pour la programmation des directives. Cette initiative est soutenue par plusieurs entreprises dont le constructeur de superordinateur Cray.

(...)

(15/11/2011 15:41:06)

L'Espagne construit un supercalculateur avec des puces ARM 4 coeurs

Avec son prototype de supercalculateur construit autour de processeurs ARM quad-core, le Centro nacional de Supercomputación (CNS) espagnol, également connu sous le nom de Barcelona Supercomputing Center (BSC), veut apporter l'efficacité énergétique aux systèmes haute performance. Le serveur en question, conçu pour traiter des charges de travail complexes, intégrera des processeurs Nvidia Tegra 3 quad-core à1,4  GHz (nom de code Kal-El), des puces d'abord destinées aux smartphones et tablettes, et livrées par le fondeur au début novembre. Les 1 000 processeurs Tegra 3 seront jumelés avec de circuits  graphiques Nvidia (architecture CUDA), pour accélérer les calculs scientifiques et mathématiques.

Le système pourrait offrir à ARM une porte d'entrée dans le marché de l'informatique haute performance, actuellement dominé par des concurrents comme Intel, AMD, IBM et Oracle. Si aujourd'hui on trouve des processeurs ARM dans la plupart des smartphones et tablettes, ceux-ci sont pratiquement absents du marché du serveur. Cependant, l'intérêt d'utiliser des puces ARM dans des serveurs ne cesse de croître : « ces processeurs offres des performances élevées et permettent de surmonter les contraintes énergétiques, » comme l'a déclaré Steve Scott, Chief Technology Officer de la division Tesla chez Nvidia. « Nous sommes très intéressés par l'entrée de ARM dans l'écosystème HPC, » a ajouté le CTO.

Un prototype censé concourir dans le Green500 seulement

« Le prototype de supercalculateur Tegra 3 ne délivrera pas les performances pétaflopiques de certains ordinateurs, parmi les plus rapides au monde, » a expliqué Steve Scott. Mais celui-ci pourrait entre dans la liste Green500, qui établit le classement des supercalculateurs les plus éco-énergétiques du monde. Nvidia n'a pas communiqué de chiffres sur les performances de la machine, ni indiqué le nombre de processeurs graphiques présents dans le supercomputer Tegra 3. Mais, « l'association de milliers de coeurs ARM avec des GPU permettra d'effectuer des calculs scientifiques complexes, tout en réduisant la consommation d'énergie et les coûts, » a précisé le CTO de Nvidia. Le BSC dispose déjà d'un serveur prototype ARM équipé de 256 puces Tegra 2 double coeur.

Grâce au processeur ARM, Nvidia élargit ses compétences dans le domaine des supercalculateurs, essentiellement concentrées autour de ses processeurs graphiques Tesla, utilisés dans des supercalculateurs pour effectuer des calculs complexes. Le supercalculateur que construit le laboratoire national d'Oak Ridge va coupler un GPU Tesla avec des CPU 16-core Opteron d'AMD pour une performance de 20 pétaflops. Il sera plus rapide que le K japonais, qui délivre une performance de 8 pétaflops et détient actuellement le titre d'ordinateur le plus rapide au monde, selon le classement établi par le Top500 au mois de juin.

Les initiatives serveur se multiplient autour d'ARM

Nvidia a également rejoint un petit groupe d'entreprises qui s'intéressent aux processeurs ARM comme alternative aux processeurs x86 d'Intel et d'AMD. Début novembre, Hewlett-Packard a annoncé qu'elle travaillait à la construction d'un serveur autour d'une puce de Calxeda qui intègre un processeur ARM quatre coeurs consomme à peine 1,5 watts. Si les processeurs ARM ne font pas faire le poids en terme de performances brutes avec des serveurs x86, les analystes pensent que l'agrégation de milliers de processeurs ARM pourrait offrir de meilleures performances par watt pour des charges de travail légères et demandant beaucoup de fluidité, comme le traitement de transactions volumineuses sur Internet.

Le prototype sur base Tegra fait parti d'un plan de développement, en grande partie financé par la Commission européenne, qui vise à faire montrer que des systèmes, capables d'offrir les performances de l'Exascale, consomment 15 à 30 fois moins d'énergie que les serveurs actuels. Le prototype Tegra 3 du BNS doit encore obtenir une validation finale, bien qu'il ait déjà été utilisé pour le développement de logiciels. Les spécifications du nouveau système seront établies l'année prochaine. Ce projet, appelé Mont-Blanc, est coordonné par le Barcelona Supercomputing Center et dispose d'un budget de plus de 14 millions d'euros.

[[page]]

Mais, comme tout nouveau venu sur le marché des serveurs, ARM a de nombreux défis à relever. En particulier, la plupart des logiciels serveur existants sont conçus pour tourner sur des puces x86, et il faudrait donc réécrire l'ensemble de ces logiciels pour leur permettre de fonctionner sur processeurs ARM. Ces derniers manquent aussi de fonctions de corrections d'erreurs et offrent un adressage 32 bits, ce qui limite le plafond de la mémoire à 4 Go. Malgré ces difficultés, Nvidia devait bien commencer quelque part. L'entreprise a choisi d'affirmer sa position de leader en mettant en avant les processeurs ARM dans les serveurs et supercalculateurs. « Ça ne va pas arriver du jour au lendemain, » a déclaré Steve Scott. « Cela va demander un certain nombre d'années. »

En attendant, Nvidia met au point un autre processeur sur base d'ARM, nom de code Project Denver, destiné aux smartphones, tablettes, PC et supercalculateurs. « Il n'est pas impossible que Nvidia intègre des coeurs ARM dans les produits Tesla à long terme, » a indiqué le CTO. « Nous allons considérer cette option et l'intégrer au bon moment », a ajouté Steve Scott. Récemment, ARM a également annoncé une architecture 64-bit, qui comporte de nombreuses fonctionnalités spécifiques au serveur. Cela va permettre à ARM de franchir une étape clé et rendre sa présence effective sur le marché du HPC. « Pour bien faire les choses, il faut une architecture 64 bits dans ce domaine, » a déclaré Steve Scott.

(...)

(14/11/2011 16:40:39)

L'Europe veut se doter d'une plateforme technologique sur le HPC

Beaucoup d'acteurs industriels comme Allinea, ARM, Bull, CAPS entreprise, Eurotech, Partec, STMicroelectronics et Xyratex se sont associés à des organismes de recherches comme le BSC (Barcelona SuperComputer), le CEA, le CINECA, le Fraunhofer, Forschungszentrum Jülich et le LRZ HPC pour créer une plateforme technologique européenne.

L'objectif de l'ETP (European Technology Platform), selon les partenaires, est de définir les priorités de recherche en Europe pour développer une technologie européenne dans l'ensemble de la chaîne de valeur du HPC. Avec cette collaboration, ils souhaitent par ailleurs « renforcer la compétitivité européenne en matière de HPC, une capacité essentielle pour la recherche future et de l'innovation ». La gestion du parallélisme extrême dans des architectures HPC et la réduction de la consommation d'énergie sera deux domaines clés du programme européen.

Dans le cadre de l'initiative, le consortium qui se met en place sera ouvert à toutes les entreprises ou les personnes qui ont des activités européennes de R&D relatives au HPC. Un plan de recherches sera également présenté à la Commission européenne pour trouver des financements supplémentaires.

Cette opération rappelle l'initiative de la Chine de vouloir construire des supercalculateurs avec des puces chinoises.

(...)

(14/11/2011 15:42:45)

Les AMD Opteron 6200 16 coeurs enfin livrés

Après plus d'un an de confidences,  AMD a annoncé la disponibilité de sa puce Opteron 6200 avec 16 coeurs, qui fait de lui le processeur x86 le mieux doté en coeurs. Les Opteron 6200, également connus sous le nom de code Interlagos, sont de 25 à 30 % plus rapides que leurs prédécesseurs 12 coeurs, les Opteron 6100, a déclaré John Fruehe, directeur du marketing produit chez AMD.

Ces puces sont attendues dans les prochaines semaines au sein des serveurs de Hewlett-Packard, de Dell, de Cray et d'Acer a précisé M.Fruehe. Elles inaugurent une nouvelle architecture baptisée Bulldozer, qui apporte des améliorations au niveau de la bande passante et des performances tout en réduisant la consommation d'énergie.

Les expéditions de puces ont été retardées de quelques semaines, a indiqué Dean McCarron, analyste chez Mercury Research. Ce retard arrive alors qu'AMD tente de renverser sa mauvaise fortune sur le marché des serveurs. Le fondeur de Sunnyvale a en effet perdu du terrain l'année dernière au profit d'Intel. Les parts de marché serveur d'AMD au niveau mondial étaient seulement de 5,5% pour le deuxième trimestre de cette année, tandis qu'Intel en accaparait 94,5%, selon IDC. AMD a également été obligé de traiter les plaintes de clients qui estimaient que l'entreprise ne respectait pas sa roadmap produits.

Des processeurs avec des vitesses allant de 1,6 à 2,6 GHz

Les cinq puces 6200 - les 6262 HE, 6272, 6274, 6276 et 6282 SE - sont cadencées à des vitesses d'horloge comprises entre 1,6 et 2,6 GHz, et sont vendues de 523 à  1019 $. Ces composants consomment de 85 à 140 watts et peuvent remplacer les anciennes puces 12 coeurs dans les serveurs puisqu'elles utilisent les mêmes sockets (C34 et G31).

« Le 6200 est destiné aux applications vraiment évolutives, des charges de travail qui ont beaucoup de threads tels que les bases de données, le cloud ​​et l'informatique haute performance », a déclaré M.Fruehe. Ces processeurs ont été conçus pour les des environnements serveurs très virtualisés ajoute-t-il encore. Les systèmes d'exploitation Linux et Microsoft Windows Server 2008 vont pouvoir profiter de ces 16 coeurs, et plusieurs instances de machines virtuelles peuvent être créées pour traiter les transactions, précise-t-il.

L'architecture Bulldozer présente comme particularité de mixer au sein du processeur des unités de calcul entier et une unité flottante de sorte que plusieurs opérations peuvent être exécutées par cycle d'horloge tout en réduisant la consommation électrique. Parmi les autres améliorations de ces puces, citons la technologie Turbo Core, qui, comme chez Intel, peut augmenter la vitesse d'horloge jusqu'à 500 MHz dans tous les coeurs et jusqu'à 1 GHz sur certains noyaux en fonction des performances requises. Les liens HyperTransport 3.0 sont toujours au nombre de 4 et le contrôleur mémoire sur quatre canaux.

Opteron 4200, un demi Opteron 6200

AMD a également annoncé la disponibilité de l'Opteron 4200, qui pourra être livrée avec 6 ou 8 coeurs. Ces puces fonctionnent à des vitesses d'horloge comprises entre 1,6 et 3,0 GHz, et sont vendues entre 125 et 377 $. Les processeurs 4200 ont été conçus pour les environnements serveurs denses nécessitant des puces basse consommation, a précisé le responsable d'AMD. Ces composants consomment de 35 à 95 watts, soit environ 4,3 watts par noyau, selon le fondeur.

Il y a un intérêt croissant pour les processeurs basse consommation sur le marché des serveurs et certains constructeurs comme HP récemment commencent à regarder ailleurs, du coté d'ARM par exemple, pour aider les entreprises à diminuer leur facture électrique. Mais toujours selon M.Fruehe, les processeurs Opteron 4200 possèdent encore une longueur d'avance sur les puces ARM, qui font l'impasse sur des fonctionnalités indispensable aux serveurs, comme l'adressage mémoire et les instructions 64-bit. « Quand vous regardez certaines des choses d'ARM, c'est une bonne technologie, mais quand vous regardez le marché des serveurs et les besoins ... ils ne vont vraiment adresser qu'une petite partie du marché, tout en bas, là où certaines de ces choses n'ont pas d'importance », a déclaré M.Fruehe. « Les processeurs pour serveurs haut de gamme seront toujours nécessaires pour les machines back-end exécutant intensivement des applications manipulant beaucoup de données ou réalisant des calculs d'images dans le cloud (...) Il n'y a aucun moyen qu'un processeur ARM à 1,4 GHz soit capable d'offrir le même niveau de performances qu'une puce x86 ». Un seul coeur peut être pas, mais quand on sait qu'ARM travaille sur une architecture multi coeurs avec instructions 64 bits (ARMv8), le retard pourrait être vite comblé.

[[page]]

Ces derniers mois, AMD a une fois de plus restructuré ses activités et la priorité du nouveau PDG, Rory Read (ex-Lenovo), est de stimuler l'activité à forte marge commerciale. Le dirigeant a d'ailleurs reconnu que les clients s'étaient plaints de l'incapacité d'AMD à fournir ses produits à temps, et qu'une de ses priorités était de régler les problèmes de fabrication et d'expédition des puces. L'Opteron 6200 est un processeur très important dans la stratégie serveur d'AMD car c'est un produit clef pour s'ancrer dans les datacenters, selon M.McCarron de Mercury Research. «Cela fait partie de leur programme de réimplantation. Ils ont connu une lente érosion ces dernières années ». Dell est le premier à annoncer que son serveur PowerEdge R815 (voir ci-dessous) pourra accueillir cette puce et passer ainsi de 48 à 64 coeurs max. La seul option supplémentaire pour ce serveur sera l'option mémoire à 1600 MHz.

AMD a connu quelques victoires importantes avec cette puce, a poursuivi l'analyste. L'une d'elles se situe au laboratoire national d'Oak Ridge du Département américain de l'Énergie, où un superordinateur appelé Titan est construit avec des processeur AMD 16 coeurs et les puces graphiques NVIDIA pour offrir un maximum de 20 Pétaflops en pointe. Ce supercalculateur dépassera le K japonais, qui, avec 8 Pétaflops, était jusqu'à présent l'ordinateur le plus rapide du monde dans la liste Top500.org publiée en juin dernier.

Le lancement de cet Opteron arrive enfin juste avant les processeurs Intel Xeon E5, qui sont déjà en fabrication et devraient arriver sur les serveurs dans la première moitié de l'année 2012. Intel a déjà 400 certifications environ pour son Xeon E5, a déclaré Kirk Skaugen, vice-président et directeur général de l'activité Intel Data Center Group, lors d'une conférence la semaine dernière.



(...)

(10/11/2011 12:28:47)

La Chine va construire plus de supercalculateurs avec ses propres puces Risc

Selon un chercheur chinois impliqué dans le calcul haute performance, la Chine a prévu de construire, à la demande du gouvernement, davantage de supercalculateurs avec ses propres processeurs. Le mois dernier, le Centre National du Supercomputing de Jinan a montré le Sunway BlueLight, son premier superordinateur entièrement fabriqué avec des microprocesseurs développés en Chine. D'après une mesure effectuée avec l'outil de benchmark Linpack, celui-ci affiche une performance soutenue de 0,79 pétaflops/par seconde, ce qui le placerait au 13 rang dans le Top 500 des supercalculateurs mondiaux. « Au cours des cinq prochaines années, la Chine devrait développer plus de super ordinateurs avec des puces made in China, » a déclaré Pan Jingshan, directeur adjoint du Centre National du Supercomputing de Jinan.

C'est en 2006 que le gouvernement chinois avait fait part de ses projets de développement en matière scientifique, lesquels impliquaient notamment « une recherche dans le domaine des superordinateurs pétaflopliques prenant en compte de nouveaux concepts fondamentaux. » La construction d'un supercalculateur 100% chinois « visait aussi à accroître la compétitivité technologique de la Chine, » a déclaré le directeur du Centre de Jinan. « La construction de supercalculateurs répond aux exigences de la Chine et de son gouvernement. Il ne fait pas de doute qu'il y aura dans le futur davantage de calculateurs hautes performances utilisant des processeurs fabriqués localement, » a-t-il ajouté.

Des processeurs Risc cadencés de 0,975 à 1,2 GHz

Le Sunway BlueLight intègre 8 704 microprocesseurs « Shenwei 1600 » qui lui confèrent une vitesse théorique maximale de 1,07 pétaflops, pour une consommation de 1 mégawatt. Le directeur du Centre de Jinan n'a pas pu fournir davantage de détails sur la nature des microprocesseurs utilisés. D'autres informaticiens impliqués dans sa construction, également contactés, n'ont pas répondu aux demandes de commentaire. Mais d'après des photos et des articles parus dans la presse locale chinoise, les microprocesseurs Shenwei 1600 présentent une architecture Risc (Reduced Instruction Sert Computing), sont dotés de 16 coeurs, et affichent une vitesse d'horloge de 0,975 à 1,2 GHz (voir photo sur ce site).

Selon Jack Dongarra, chercheur en informatique à l'Université du Tennessee, à l'origine de la compilation qui permet d'établir la liste des 500 premiers supercalculateurs au niveau mondial, la puce Shenwei 1600 a été construite selon un processus de gravure à 65 nanomètres. « Le design est excellent, » a-t-il répondu par mail à nos confrères d'IDG News Service, basés à Pékin. « Mettre 16 coeurs basse énergie dans un design à 65 nanomètres, c'est une très bonne conception. » Comparativement, « les processeurs de la série Core i7-900 d'Intel utilisent le processus de gravure à 32 nanomètres, et affichent quatre fois plus de transistors, » a-t-il déclaré. « On peut comprendre que pour une technologie aussi délicate que celles des microprocesseurs, les Chinois ne veulent pas être dépendants de la technologie occidentale, tout comme les États-Unis ne voudraient pas être dépendants de la technologie étrangère, » a déclaré Jack Dongarra.

Ce mois-ci, une association d'informaticiens chinois a établi son propre classement des superordinateurs hautes performances locaux. Le Sunway BlueLight arrive en deuxième position, derrière le Tianhe-1A, qui a, pendant une courte période en 2010, occupé la première place des superordinateurs les plus rapides du monde.

(...)

(09/11/2011 16:29:26)

Fujitsu Forum 2011 : Accompagner toutes les facettes du cloud

Rolf Schwirz, PDG de Fujitsu Technology Solutions explique dans la conférence d'ouverture du Forum 2011 à Munich, « le cloud n'est pas une rupture technologique, il s'agit d'un changement de modèle économique basé sur la délivrance de service IT ». Et le dirigeant entend bien générer du revenu sur ce modèle, d'ici à 2015, le cloud devrait représenter 30% du chiffre d'affaires global de Fujitsu (cela représente 20 milliards de dollars en se basant sur l'exercice fiscal 2010). Une fois planté le décor économique et stratégique, place aux annonces technologiques. Joseph Reger, CTO CEMEA chez Fujitsu Technology Solutions, est revenu sur les présentations du jour.

En premier lieu, Fujitsu a présenté sa boutique d'applications professionnelles, baptisée Business Solution Store. Pour Joseph Reger, « il est nécessaire de créer un écosystème applicatif sur notre offre global cloud (l'offre PaaS de Fujitsu en collaboration avec Microsoft) ». Le constructeur prévoit un millier d'applications provenant d'une centaine de partenaires, qui pourront proposer leurs produits en mode SaaS.

Le groupe se lance aussi en direct en proposant une offre CRM Open Source, qui repose sur le savoir-faire technologique de la société VTiger. « Le cloud doit modifie le régime de licence en passant au modèle de paiement à l'usage, l'offre CRM en Open Source va dans cette direction », souligne Joseph Retzger. Par contre aucun prix n'a été communiqué sur cette offre et sa disponibilité est prévue au début 2012. Par ailleurs, Juan Maria Porcar, vice-président Service Business Groupe nous a indiqué, « il est probable que nous développions d'autres applications comme celle du CRM pour montrer aux fournisseurs de services l'intérêt du cloud ».

Des offres datacenter pré-packagées

Parmi les autres annonces, Fujitsu succombe aussi aux charmes du tout-en-un. Pour faire évoluer ou consolider son datacenter, le constructeur propose DI Blocks, une offre tout-en-un comprenant serveurs (Primenergy), réseau et stockage (Eternus), mais aussi des solutions logicielles pour la virtualisation (VMware ou Microsoft) et l'orchestration des ressources, dans le cadre de la création d'un cloud privé.

Plusieurs types de configuration seront disponibles à partir de début 2012, elles débuteront avec 48 coeurs et pourront atteindre 1 700 processeurs Intel Xeon 5600, la mémoire vive pourra évoluer jusqu'à 21 To et les capacités de stockage pourront embarquer jusqu'à 900 To. Côté connectivité, les systèmes DI Blocks accueilleront des ports 10 Gb Ethernet ou du 8 Gb en FC. Aucun prix n'a été dévoilé sur les différentes configurations. Le constructeur se lance donc dans la même aventure que HP, IBM, ou l'alliance VMware, Cisco et EMC dans l'intégration des différentes stacks au sein d'un même produit.



Supercalculateur 23,2 petaflops et tablette Android

En dehors du cloud, Fujitsu a présenté le supercalculateur PrimeHPC FX10. Il est doté d'une capacité théorique de calcul de 23,2 petaflops. Il a été utilisé au sein du supercalculateur K au Japon, qui revendiquait la première place mondiale en juin dernier. Fujitsu indique que le PrimeHPC FX10 fonctionne avec le processeur Sparc64 IXfx (le japonais avait travaillé sous licence Sun bien avant le rachat par Oracle) avec 16 coeurs cadencés à 1,8 GHz, qui succède au processeur 8 coeurs Sparc64 VIIIfx. Le modèle commercialisé par Fujitsu comprend aussi une capacité de mémoire vive de 32 à 64 Go et deux liens bidirectionnels capables de travailler à 5 Gbit/s pour la liaison entre les serveurs. Chaque serveur intègre un rack qui comprend 96 serveurs. En sachant que le modèle de base comprend 4 racks, la capacité de calcul peut atteindre en version maximale à 90 Teraflops pour une capacité de mémoire de 12 To. Ce supercalculateur utilise un système de water-cooling pour optimiser le ratio performance/consommation d'énergie. Les premiers clients devraient être servis au début de l'année 2012.

Dans un autre domaine, Fujitsu a présenté en démonstration sa tablette sous Android, la Slate PC, qui supporte le VDI via Citrix receiver et est résistant à l'eau. La tablette comprend aussi un slot pour des cartes SD ainsi qu'une carte SIM. Pour l'instant, cette tablette n'existe qu'au Japon avec l'opérateur NTT DoCoMo et il n'existe pas de plan pour développer ce produit. Joseph Reger a expliqué « nous regardons quelles sont les opportunités et nous travaillons aussi sur d'autres OS comme Windows 8 qui apporte une expérience utilisateur intéressante ».

(...)

(31/10/2011 16:48:14)

La Chine montre un supercalculateur exploitant ses propres puces

La Chine a construit son premier supercalculateur entièrement basé sur des processeurs qu'elle a fabriqués, ce qui constitue pour le pays une étape importante vers une indépendance vis-à-vis de la technologie occidentale pour la mise au point des systèmes HPC. Le centre national des supercalculateurs de Jinan a dévoilé l'ordinateur jeudi dernier, selon la presse d'Etat. Ce supercalculateur utilise 8 704 micro-processeurs Shenwei 1600 ayant été développés par le National High Performance Integrated Circuit Design Center de Shanghai. 

Mis au point par l'institut de recherche SDAS (Shandong Academy of Sciences), le système présente une puissance de pointe théorique de 1,07 petaflop (mille milliards d'opérations en virgule flottante par seconde) et une performance soutenue de 0,79 petaflop, mesurée par le test Linpack. Cela pourrait le placer à la 13e place du Top 500, le classement mondial des supercalculateurs. Des photos du processeur utilisé et du datacenter peuvent être consultées sur le site gov.cn. Selon le New York Times, le système porterait, en anglais, le nom de Sunway BlueLight MPP.

Il y a un an, le Tianhe-1A détenait la 1ère place du Top 500

La Chine investit de plus en plus dans la technologie HPC. En novembre dernier, son supercalculateur Tianhe-1A avait attiré l'attention en devenant temporairement le plus puissant du monde, prenant alors la tête du Top 500. Mais l'ordinateur exploitait des puces fabriquées par Intel et Nvidia. Le Tianhe-1A présente une vitesse théorique de 4,7 petaflops et une performance soutenue de 2,5 petaflops.

Dans le Top 500, la Chine ne compte pas moins de 61 supercalculateurs. Comparativement, les Etats-Unis en dénombrent 255. Pour l'instant, c'est le K Computer, un système HPC japonais qui détient la première place, d'où il a délogé le Tianhe-1A.

Les experts du domaine s'attendaient à ce que la Chine construise son propre supercalculateur en utilisant des processeurs qu'elle aurait elle-même fabriqués. Sur place, la presse d'Etat a salué le nouveau venu comme un symbole de la puissance chinoise.

Illustration : le supercalculateur chinois utilisant les puces fabriqués localement (crédit : www.gov.cn)

(...)

(13/10/2011 13:03:50)

PASS Summit 2011 : Microsoft saute dans le wagon Hadoop avec Hortonworks

Microsoft va collaborer avec Hortonworks pour développer la mise en oeuvre du framework Apache Hadoop sur son environnement Windows Server et sa plateforme cloud Azure. Cette société, issue de Yahoo, lui apportera son expertise pour intégrer Hadoop dans Windows. On savait depuis cet été que l'éditeur de Redmond s'était attelé à ce projet, l'équipe de SQL Server ayant publié un billet à ce sujet sur son blog officiel.

Une pré-version du service pour Azure est prévue pour la fin de cette année, a indiqué Microsoft sur sa conférence utilisateurs PASS Summit consacrée à SQL Server (du 11 au 14 octobre à Seattle). Tandis que celle destinée à Windows Server arrivera courant 2012 et fonctionnera avec les outils de Business Intelligence de Microsoft. Ces outils permettront aux clients de l'éditeur de mieux appréhender la prise en compte des Big Data (flux d'informations remontés des capteurs, des connexions web, données non structurées provenant des réseaux sociaux, fichiers vidéo, etc.), a confirmé Ted Kummert, vice-président corporate de la division Plateforme Business de Microsoft.

Oracle a aussi adopté Hadoop et IBM racheté Platform Computing

La semaine dernière, dans ce domaine, Oracle a annoncé la solution Big Data Appliance (matériel + logiciel) qui exploite également Hadoop, ainsi qu'une base de données NoSQL maison et une distribution du langage de programmation R pour l'analyse statistique, afin de pouvoir traiter les volumes de données importants.

Hier, IBM a de son côté annoncé le rachat de l'éditeur canadien Platform Computing, spécialisé sur la gestion des clusters et des traitements en grille dans les environnements distribués, dans lesquels Hadoop est typiquement exploité. Ce framework Open Source, qui supporte les applications portant sur les Big Data, suscite de plus en plus l'intérêt des responsables informatiques pour ses capacités à traiter les énormes flux de données qu'ils doivent prendre en compte. Un nombre croissant d'entreprises cherche à les collecter afin de les analyser pour en tirer des informations significatives pour les activités. Jusqu'à présent, elles se trouvaient limitées pour le faire par les limites des bases de données relationnelles traditionnelles, avant tout conçues pour manipuler les données structurées.

Les premiers à l'avoir adopté, parmi lesquels Yahoo, AOL, Google et d'autres, se sont servis d'Hadoop pour stocker et analyser des petaoctets d'informations non structurées. Les autres technologies de datawarehouse se sortent moins bien de ce type de traitements.

Une belle visibilité pour Hortonworks

Pour Merv Adrian, analyste au Gartner interrogés par nos confrères de Computerworld, l'alliance entre Microsoft et Hortonworks n'est pas surprenante. Pour lui, chacun des principaux fournisseurs de base de données doit prendre garde de ne pas amener les clients qui voudront s'atteler aux Big Data à puiser dans d'autres offres. La question principale restant : vont-ils aller seuls sur ce terrain ou vont-ils s'attacher l'expertise d'un spécialiste. Merv Adrian souligne que le partenariat avec Microsoft constitue un « plus » important pour l'éditeur Hortonworks qui réunit une équipe d'experts très spécialisés sur la technologie Apache Hadoop. Cette entreprise, fraîchement émoulue de Yahoo, a pris son indépendance cette année, rappelle l'analyste de Gartner. Sur le marché commercial des systèmes Hadoop, le leader est actuellement Cloudera, cite par ailleurs Merv Adrian. 

Selon l'analyste de Gartner, il est probable que de nombreux clients de Microsoft qui commencent à pense aux Big Data pour la première fois n'auront pas entendu beaucoup parler d'Hortonworks. Voilà qui devrait donner une belle visibilité à cette société. 

De son coté, Stephen O'Grady, analyste chez Red Monk, considère qu'il est important pour Microsoft de disposer d'une solution compétitive pour mettre en oeuvre Hadoop sur sa plateforme. Il est clair que Microsoft estime qu'il est important d'optimiser et d'ajuster sa plateforme dans ce domaine pour se différencier.

(...)

(12/10/2011 16:00:28)

Les Etats-Unis veulent reprendre la tête des supercalculateurs avec Titan

La course mondiale au supercalculateur le plus rapide a pris aujourd'hui un nouveau tournant. En effet, Cray a annoncé avoir remporté un contrat avec le Laboratoire National d'Oak Ridge, qui dépend du Département Américain à l'Énergie, pour mettre au point un système capable de délivrer une puissance de calcul pouvant atteindre les 20 pétaflops, soit 20 X (10 puissance 15) opérations en virgule flottante par seconde. Selon Cray, le coût de ce supercalculateur, dénommé Titan, est estimé à plus de 97 millions de dollars. Il doit être achevé en 2013.

Cray ne partira pas de zéro pour le construire, même s'il s'agit d'une mise à jour majeure de son supercalculateur Jaguar déjà installé à Oak Ridge. Selon le centre américain, Jaguar, qui affiche une puissance de calcul de 2,33 pétaflops, est le superordinateur le plus rapide des États-Unis. Son successeur, Titan, sera construit en associant des processeurs GPU et CPU. Chaque node de calcul du système Jaguar actuel affiche deux processeurs AMD Opteron. Le projet de Titan implique, en partie, la suppression d'un processeur Opteron et son remplacement par un GPU Nvidia, l'autre processeur sera remplacé par des puces Interlagos 16 coeurs. Selon Sumit Gupta, directeur du département Tesla GPU chez Nvidia, le système d'Oak Ridge pourra « largement dépasser les 20 pétaflops», s'il est réalisé sur la base de Jaguar. Le nouveau supercalculateur va concentrer la puissance de 18 000 processeurs graphiques Tesla. « C'est une étape vers un plus grand système à 100 pétaflops. C'est à dire que nous nous rapprochons de l'Exascale, » a déclaré le responsable de Nvidia.

Une utilisation de plus en plus importante des GPU


IBM doit également construire pour le Lawrence Livermore National Laboratory un système délivrant une puissance de calcul de 20 pétaflops appelé Séquoia. Ce dernier, dont le coût n'a pas été divulgué, devrait être prêt en 2012. Ces dernières années, les constructeurs de gros systèmes ont commencé à se tourner vers les processeurs graphiques pour améliorer les performances des supercalculateurs. Ces GPU, parfois appelées co-processeurs, peuvent grandement améliorer les capacités de calcul pour réaliser des simulations. « Dans le domaine du calcul haute performance, les GPU ont été largement étudiées sur le plan expérimental, » a déclaré Steve Conway, analyste spécialisé dans l'informatique haute performance chez IDC. Le système d'Oak Ridge « permet de franchir une étape supplémentaire quant à la pertinence de l'usage de ces processeurs dans les systèmes HPC, » a t-il ajouté.

Titan sera utilisé par les chercheurs du laboratoire d'Oak Ridge pour « pousser un peu plus le réalisme des simulations nucléaires », et « améliorer le pouvoir prédictif des simulations climatiques. » Le supercalculateur sera également utilisé pour développer et comprendre le fonctionnement des « nanomatériaux pour les piles, l'électronique et d'autres applications», a indiqué par ailleurs le laboratoire national américain. La construction de supercalculateurs dépend aussi d'autres facteurs, en particulier le coût, la quantité d'énergie dont ils ont besoin, et la capacité des logiciels à travailler à de telles échelles. Selon Steve Conway, il n'existe aujourd'hui que six applications capables de tourner à un pétaflop ou plus, en raison notamment de la complexité à développer des logiciels sachant tourner sur des milliers de processeurs et de tirer profit du parallélisme.

(...)

(12/10/2011 15:36:02)

IBM acquiert Platform Computing, spécialiste de la gestion du HPC

Les logiciels développés par Platform Computing permettent aux entreprises de gérer des noeuds de serveurs comme une entité unique, et d'obtenir de grandes puissances de traitement. Les clusters peuvent alors réaliser de gros efforts de calcul, démultipliant les capacités des serveurs. C'est le cas dans la recherche mathématique, quand il s'agit de développer de nouveaux matériaux par exemple, ou pour le suivi en détail des marchés financiers. Selon IDC, les entreprises vont dépenser 14 milliards de dollars pour acquérir des matériels et des logiciels qui répondent aux besoins de cette informatique technique.

Le logiciel de Platform Computing est utilisé par les services financiers, les industriels, les médias numériques, le gouvernement et la recherche. L'entreprise basée à Toronto avait une position dominante dans le domaine très académique de l'informatique partagée, mais a récemment adapté ses produits pour le déploiement de services Cloud. L'entreprise compte plus de 2 000 clients, au nombre desquels Citigroup, Red Bull Racing, l'Université de Tokyo, ou encore le CERN (Organisation européenne pour la recherche nucléaire).

Courtisé de longue date

« Du point de vue d'IBM, cet achat est une bonne opportunité, car IBM pourra utiliser le logiciel de Platform de différentes manières », fait remarquer Charles King, président et analyste principal de Pund-IT. Le logiciel pourrait jouer un rôle clé dans la stratégie d'IBM pour bâtir des services Cloud multiplateformes. L'analyste souligne également que, au cours des 10 dernières années, IBM s'est associé à la plateforme dans diverses applications et travaux HPC mettant en oeuvre l'informatique partagée, si bien que la technologie de Platform Computing est devenue très complémentaire de celle d'IBM.

« IBM courtise Platform Computing depuis longtemps, » a déclaré Charles King. Les activités de l'éditeur, qui emploie 500 personnes dans le monde, seront intégrées dans la division Systems and Technology Group de Big Blue. Ce dernier pense finaliser son achat d'ici la fin de l'année.

Une intégration déjà bien avancée


Le marché du HPC « est en pleine expansion dans un secteur où les charges de travail intenses, très gourmandes en capacité de calcul, sont à la mesure de la demande en traitement de données, et va devenir la norme au cours de la prochaine décennie. L'entreprise canadienne a bâti sa réputation sur un logiciel de planification des tâches, mais propose aussi de très solides solutions construites autour du middleware Symphony. « IBM pense que son expertise dans le HPC sera potentiellement bénéfique au-delà de ce marché, » a déclaré Dave Jursik, président des ventes de HPC au niveau mondial chez IBM. Jusqu'ici, le HPC était « un domaine principalement réservé aux grandes institutions de recherche universitaires et gouvernementales », a-t-il ajouté. Aujourd'hui cependant, des industries très différentes peuvent avoir accès au calcul haute performance, grâce au logiciel d'analyse d'IBM qui permet de traiter de vastes quantités de données et résoudre des problèmes nécessitant du calcul intensif.

Le logiciel de planification de tâche de Platform Computing, mais aussi son expertise dans le middleware Symphony, pourrait aider IBM à mieux servir ces entreprises. « La base commune de ces technologies va contribuer à élargir notre rôle sur le marché et à approfondir l'expertise et la valeur de ce que nous pouvons apporter», a déclaré Dave Jursik.

(...)

< Les 10 documents précédentsLes 10 documents suivants >