Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 2131 à 2140.

< Les 10 documents précédentsLes 10 documents suivants >


(12/10/2011 16:00:28)

Les Etats-Unis veulent reprendre la tête des supercalculateurs avec Titan

La course mondiale au supercalculateur le plus rapide a pris aujourd'hui un nouveau tournant. En effet, Cray a annoncé avoir remporté un contrat avec le Laboratoire National d'Oak Ridge, qui dépend du Département Américain à l'Énergie, pour mettre au point un système capable de délivrer une puissance de calcul pouvant atteindre les 20 pétaflops, soit 20 X (10 puissance 15) opérations en virgule flottante par seconde. Selon Cray, le coût de ce supercalculateur, dénommé Titan, est estimé à plus de 97 millions de dollars. Il doit être achevé en 2013.

Cray ne partira pas de zéro pour le construire, même s'il s'agit d'une mise à jour majeure de son supercalculateur Jaguar déjà installé à Oak Ridge. Selon le centre américain, Jaguar, qui affiche une puissance de calcul de 2,33 pétaflops, est le superordinateur le plus rapide des États-Unis. Son successeur, Titan, sera construit en associant des processeurs GPU et CPU. Chaque node de calcul du système Jaguar actuel affiche deux processeurs AMD Opteron. Le projet de Titan implique, en partie, la suppression d'un processeur Opteron et son remplacement par un GPU Nvidia, l'autre processeur sera remplacé par des puces Interlagos 16 coeurs. Selon Sumit Gupta, directeur du département Tesla GPU chez Nvidia, le système d'Oak Ridge pourra « largement dépasser les 20 pétaflops», s'il est réalisé sur la base de Jaguar. Le nouveau supercalculateur va concentrer la puissance de 18 000 processeurs graphiques Tesla. « C'est une étape vers un plus grand système à 100 pétaflops. C'est à dire que nous nous rapprochons de l'Exascale, » a déclaré le responsable de Nvidia.

Une utilisation de plus en plus importante des GPU


IBM doit également construire pour le Lawrence Livermore National Laboratory un système délivrant une puissance de calcul de 20 pétaflops appelé Séquoia. Ce dernier, dont le coût n'a pas été divulgué, devrait être prêt en 2012. Ces dernières années, les constructeurs de gros systèmes ont commencé à se tourner vers les processeurs graphiques pour améliorer les performances des supercalculateurs. Ces GPU, parfois appelées co-processeurs, peuvent grandement améliorer les capacités de calcul pour réaliser des simulations. « Dans le domaine du calcul haute performance, les GPU ont été largement étudiées sur le plan expérimental, » a déclaré Steve Conway, analyste spécialisé dans l'informatique haute performance chez IDC. Le système d'Oak Ridge « permet de franchir une étape supplémentaire quant à la pertinence de l'usage de ces processeurs dans les systèmes HPC, » a t-il ajouté.

Titan sera utilisé par les chercheurs du laboratoire d'Oak Ridge pour « pousser un peu plus le réalisme des simulations nucléaires », et « améliorer le pouvoir prédictif des simulations climatiques. » Le supercalculateur sera également utilisé pour développer et comprendre le fonctionnement des « nanomatériaux pour les piles, l'électronique et d'autres applications», a indiqué par ailleurs le laboratoire national américain. La construction de supercalculateurs dépend aussi d'autres facteurs, en particulier le coût, la quantité d'énergie dont ils ont besoin, et la capacité des logiciels à travailler à de telles échelles. Selon Steve Conway, il n'existe aujourd'hui que six applications capables de tourner à un pétaflop ou plus, en raison notamment de la complexité à développer des logiciels sachant tourner sur des milliers de processeurs et de tirer profit du parallélisme.

(...)

(12/10/2011 15:36:02)

IBM acquiert Platform Computing, spécialiste de la gestion du HPC

Les logiciels développés par Platform Computing permettent aux entreprises de gérer des noeuds de serveurs comme une entité unique, et d'obtenir de grandes puissances de traitement. Les clusters peuvent alors réaliser de gros efforts de calcul, démultipliant les capacités des serveurs. C'est le cas dans la recherche mathématique, quand il s'agit de développer de nouveaux matériaux par exemple, ou pour le suivi en détail des marchés financiers. Selon IDC, les entreprises vont dépenser 14 milliards de dollars pour acquérir des matériels et des logiciels qui répondent aux besoins de cette informatique technique.

Le logiciel de Platform Computing est utilisé par les services financiers, les industriels, les médias numériques, le gouvernement et la recherche. L'entreprise basée à Toronto avait une position dominante dans le domaine très académique de l'informatique partagée, mais a récemment adapté ses produits pour le déploiement de services Cloud. L'entreprise compte plus de 2 000 clients, au nombre desquels Citigroup, Red Bull Racing, l'Université de Tokyo, ou encore le CERN (Organisation européenne pour la recherche nucléaire).

Courtisé de longue date

« Du point de vue d'IBM, cet achat est une bonne opportunité, car IBM pourra utiliser le logiciel de Platform de différentes manières », fait remarquer Charles King, président et analyste principal de Pund-IT. Le logiciel pourrait jouer un rôle clé dans la stratégie d'IBM pour bâtir des services Cloud multiplateformes. L'analyste souligne également que, au cours des 10 dernières années, IBM s'est associé à la plateforme dans diverses applications et travaux HPC mettant en oeuvre l'informatique partagée, si bien que la technologie de Platform Computing est devenue très complémentaire de celle d'IBM.

« IBM courtise Platform Computing depuis longtemps, » a déclaré Charles King. Les activités de l'éditeur, qui emploie 500 personnes dans le monde, seront intégrées dans la division Systems and Technology Group de Big Blue. Ce dernier pense finaliser son achat d'ici la fin de l'année.

Une intégration déjà bien avancée


Le marché du HPC « est en pleine expansion dans un secteur où les charges de travail intenses, très gourmandes en capacité de calcul, sont à la mesure de la demande en traitement de données, et va devenir la norme au cours de la prochaine décennie. L'entreprise canadienne a bâti sa réputation sur un logiciel de planification des tâches, mais propose aussi de très solides solutions construites autour du middleware Symphony. « IBM pense que son expertise dans le HPC sera potentiellement bénéfique au-delà de ce marché, » a déclaré Dave Jursik, président des ventes de HPC au niveau mondial chez IBM. Jusqu'ici, le HPC était « un domaine principalement réservé aux grandes institutions de recherche universitaires et gouvernementales », a-t-il ajouté. Aujourd'hui cependant, des industries très différentes peuvent avoir accès au calcul haute performance, grâce au logiciel d'analyse d'IBM qui permet de traiter de vastes quantités de données et résoudre des problèmes nécessitant du calcul intensif.

Le logiciel de planification de tâche de Platform Computing, mais aussi son expertise dans le middleware Symphony, pourrait aider IBM à mieux servir ces entreprises. « La base commune de ces technologies va contribuer à élargir notre rôle sur le marché et à approfondir l'expertise et la valeur de ce que nous pouvons apporter», a déclaré Dave Jursik.

(...)

(12/10/2011 15:04:04)

Pannes Blackberry : un switch coeur de réseau mis en cause

Communication de crise, calmer les esprits, la publication hier d'un message de RIM pour indiquer « un retour à la normal des services » n'a semble-t-il pas convaincu les utilisateurs de BlackBerry qui subissaient encore des ralentissements ou des incapacités de services. Hier soir, le constructeur canadien est revenu à la charge en publiant sur son fil Twitter les raisons de la panne géante qui a touché plusieurs continents Europe, Asie, Afrique, mais aussi quelques pays d'Amérique du Sud. « Message delays were caused by a core switch failure in RIM's infrastructure. Now being resolved. Sorry for inconvenience » (les retards dans la récupération des messages sont dus à une panne d'un commutateur de coeur de réseau dans l'infrastructure de RIM. Maintenant, c'est résolu. Désolé pour ces désagréments).

Le PRA n'a pas fonctionné ?


La commutation de coeur de réseau permet de concentrer les flux de requêtes et d'assurer la distribution de ces demandes aux serveurs qui délivrent les services demandés. En général quand ce switch tombe, le trafic est détourné vers un commutateur de secours. Or, RIM a indiqué que cette solution de back-up n'a pas fonctionné, comme lors de tests réalisés préalablement. En conséquence, les flux de requêtes ont été si nombreux et importants que cela a provoqué un engorgement. Il semble que les retards s'étendent sur l'ensemble des continents, car même l'Amérique du Nord commence à subir des ralentissements sur les services Blackberry.

(...)

< Les 10 documents précédentsLes 10 documents suivants >