Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1811 à 1820.

< Les 10 documents précédentsLes 10 documents suivants >


(14/05/2008 16:57:43)

Le Cell d'IBM s'offre un nouveau serveur lame

IBM lance un nouveau serveur lame à base de processeurs Cell, le BladeCenter QS22. Celui-ci intègre une nouvelle version compatible avec l'architecture Cell Broadband Engine (Cell/B.E.), le PowerXCell 8i. La puce est cinq fois plus rapide que le Cell/B.E. d'origine, et comprend 16 fois plus de mémoire (jusqu'à 32 Go). Le serveur est équipé de Red Hat Enterprise Linux et de Eclipse pour le développement. Big Blue estime que son nouveau serveur pourrait par exemple servir, dans certaines configurations, à diagnostiquer une tumeur en quelques secondes plutôt que quelques heures. Vingt partenaires et trente-cinq universités participeront au développement de l'écosystème HPC (high performance computing) de ce nouveau serveur, en développant des applications capables d'exploiter au mieux ses capacités. Une nouvelle version du kit de développement parallèle Le Cell est en effet un multi-processeur très spécifique, destiné au calcul intensif, qui comprend un processeur principal de type Power PC qui se décharge de certaines tâches gourmandes sur huit autres processeurs connexes. Un système qui exige donc une parallélisation particulière des applications. C'est pourquoi en même temps que son nouveau serveur, IBM rend disponible une mise à jour de son SDK (Software Development Kit) For Multicore Acceleration v3. Selon IBM, la finance, les media numériques et l'imagerie médicale ont désormais besoin de ce type de serveurs conçus pour le calcul intensif. C'est donc logiquement que parmi les 50 premiers clients se trouve le studio d'animation Threshold Animation Studio. Les éditeurs de grid Platform Computing et de simulation immersive Simudyne font également partie des utilisateurs. (...)

(14/05/2008 12:30:12)

AMD poursuit la réorganisation de sa direction

La réorganisation au sommet d'AMD se poursuit. Après le départ en avril de Phil Hester, le directeur technique, le fondeur annonce la création d'une unité centralisée qui sera chargée de superviser la feuille de route. Cette division sera dirigée par Chekib Akrout, ancien vice-président de Freescale chargé de la technologie après avoir participé au développé du CPU Cell chez IBM, et par Jeff Verheul, jusqu'alors vice-président à l'ingénierie d'AMD. Parallèlement, le groupe fait part du départ de Mario Rivas, son vice-président en charge du groupe Computing solutions. Il sera remplacé par Randy Allen, salarié d'AMD depuis 24 ans, qui dirigeait jusqu'à présent les activités serveurs et stations de travail. Ces changements sont laconiquement justifiés dans un communiqué indiquant que le groupe « accélère sa transformation, en refondant et renforçant l'équipe dirigeante pour conduire les activités dans les processeurs x86 et graphiques ». Sans surprise, aucune référence n'est faite aux difficultés que rencontre AMD depuis plusieurs trimestres. Pour son T1 2008, le concurrent d'Intel faisait état d'une perte nette de 358 M$. Début mai, le groupe expliquait que sa part de marché dans le domaine des processeurs - environ 13% - représentait « moins de la moitié de ce qui est nécessaire pour se maintenir à long terme comme une société viable ». Comme prévu, le CTO démissionnaire le mois dernier n'a pas été remplacé. AMD annonçait en effet après le départ de Phil Hester que « chacune des divisions a eu et continuera d'avoir ses propres directeurs techniques ». (...)

(14/05/2008 11:27:32)

Annuels : l'intégration de MIBS profite à Overlap

Overlap Groupe a publié des résultats annuels conformes à ses objectifs, suite à la fusion avec MIBS, filiale d'IB Group. Le chiffre d'affaires de la nouvelle entité (officiellement créée le 22 novembre dernier) s'élève à 154,3 M€, contre 116,3 M€ en 2006, en hausse de 33%. A périmètre comparable, la progression est plus modeste (+8%). Les quatre mois d'activité de MIBS (qui évolue essentiellement dans l'univers HP, alors qu'Overlap est plutôt positionné dans le monde des mainframes IBM et la sécurité) apportent 29 M€ à la SSII française. Dans le détail, ce sont surtout les activités infrastructures qui contribuent à ces bons résultats (111,5 M€, soit + 46%). Les sociétés Overlap, MIBS et Hexalis (du groupe Overlap) ont d'ailleurs fondu leurs branches infrastructures au sein d'une même entité, baptisée Ovesys. La part des services quant à elle a quasiment doublé, pour atteindre les 39,8 M€. La SSII publiera l'ensemble de ses résultats financiers pour 2007 le 30 juin. Elle emploie actuellement 500 personnes en France et en Suisse, et vise un chiffre d'affaires de 230 M€ pour le prochain exercice annuel. (...)

(14/05/2008 10:50:41)

IBM peaufine le premier supercalculateur à un petaflop

Un mois avant que ne paraisse le Top 500, le classement recensant les supercalculateurs les plus puissants de la planète, IBM met la touche finale à Roadrunner. La machine devrait être la première de l'histoire à franchir la barre du petaflop (soit un million de milliards d'opérations par seconde), doublant ainsi la puissance du supercalculateur aujourd'hui le plus rapide. Roadrunner sera installé au sein du Laboratoire national de Los Alamos, aux Etats-Unis, et servira à des simulations dans les domaines de la sécurité intérieure, l'armement nucléaire et les changements climatiques. Selon John Morrison, qui dirige la division du calcul haute performance (HPC) à Los Alamos, il ne faudra qu'une semaine au supercalculateur pour résoudre des calculs qui auraient demandé vingt ans de travail à la machine la plus puissante en 1998. Un savant mélange d'Opteron et de Cell Si Roadrunner parvenait à passer le cap du petaflop ce mois-ci, il détrônerait BlueGene, une autre création IBM, au sommet du Top500 à paraître le 17 juin. Les machines BlueGene trustent les premières places du podium depuis novembre 2004 et la première affiche une puissance de 478 Tflop au dernier classement. Il y a 22 ans, une machine franchissait pour la première fois la barre du gigaflop. Onze ans plus tard, c'était au tour du teraflop d'être dépassé. Cet enchaînement régulier de records pourrait donc perdurer avec Roadrunner. Pour atteindre cette puissance, IBM a associé des processeurs Opteron d'AMD à ses puces Cell, développées en collaboration avec Toshiba et Sony, et initialement utilisées dans la console PlayStation 3 de ce dernier. « Les processeurs Cell ont été conçus pour des calculs intensifs dans le domaine des jeux vidéo. Ce qui fait leur force pour le jeu constitue aussi leur atout pour un supercalculateur», indique Don Grice, chef de l'ingénierie sur le projet Roadrunner. IBM avait déjà réalisé des tests avec des lames Cell en 2006 dans le supercalculateur MareNostrum installé près de Barcelone. Et une nouvelle version de ces serveurs vient tout juste d'être annoncée. La machine nécessite une puissance électrique colossale de 3,9 Mw pour alimenter ses 6 948 Opteron et 12 960 Cell. Elle embarque 80 To de mémoire vive et occupe une superficie de 557 m². (...)

(13/05/2008 12:09:37)

AMD réduit la consommation de ses quadri-coeurs

AMD a annoncé cinq quadri-coeurs Opteron HE peu gourmands en énergie puisqu'ils ne consommeront que 55 Watts. Ils seront disponibles pour les gammes de serveurs classiques et lames en racks de deux, quatre ou huit. « Nos nouvelles puces sont conçues pour aider les responsables de datacenters qui considèrent la baisse de la consommation électrique et la virtualisation comme des clés pour résoudre l'équation globale de la performance du datacenter, explique dans une déclaration Randy Allen, vice-président et directeur général de la division serveurs et stations de travail d'AMD. » En plus d'être économe, l'Opteron intègre en effet aussi des fonctions d'optimisation de la virtualisation (passage plus rapide d'une machine virtuelle à l'autre, support d'un plus grand nombre d'utilisateurs et de transactions en environnement virtualisé, etc). Un moyen de conforter le succès des Opteron La consommation des datacenters est une problématique d'actualité, comme le confirme Charles King, analyste pour le cabinet californien Pund-IT qui rappelle que la consommation du processeur est loin d'être négligeable dans un centre serveur. Pour lui, l'utilisation de processeurs plus économiques comme cette génération d'Opteron et d'autres puces x86 économes se révèle intéressante même si « en pourcentage, la virtualisation aura bien plus d'impact. » Enfin, le consultant ajoute que cette version du processeur à 55 Watts « permettra à AMD de confirmer le succès de l'Opteron dans le monde des serveurs. » (...)

(09/05/2008 17:49:14)

Dell entre de plain-pied dans la virtualisation

Dell n'hésite pas à annoncer une stratégie de virtualisation articulée autour d'annonces de serveurs, de systèmes de stockage et de service. Au niveau des serveurs, Dell promet de livrer rapidement les serveurs racks R805 (2U) et R905 (4U). Le premier peut accueillir deux processeurs AMD Opteron bi (2200) ou quadricoeur (2300), le second quatre Opteron 8200 ou 8300. Dans les semaines à venir, le constructeur prévoit aussi de livrer ses serveurs 2950, R900, 1950, 2900 ainsi que les lames M600 et M605 équipés de VMware ESXi 3.5 ou de Citrix XenServer. A noter que, pour l'heure, Dell ne supporte aucun autre hyperviseur. A la suite de son rachat d'EqualLogic, Dell fait miroiter le haut niveau d'intégration des baies de stockage iSCSI de cette marque avec VMware Site Recovery Manager. Enfin, côté service, Dell dévoile toute une batterie de prestations autour de la virtualisation. C'est un défi pour l'activité service du constructeur qui va devoir apporter un niveau de prestation suffisant pour accompagner ses clients dans la découverte des arcanes de la virtualisation. (...)

(09/05/2008 13:53:32)

AMD saute de 6 à 12 coeurs, sans passer par la case octo-coeurs

Aux prises avec des difficultés financières et après les retards et les bogues de son quadri-coeurs Barcelona, AMD semble se débattre comme un insecte sur le dos. Et ses récentes attaques en justice contre Intel, par exemple, même si elles se révèlent justifiées, n'auront aucunement résolu ses problèmes. Mais le fondeur a finalement décidé de prendre ces derniers à bras le corps en bouleversant la feuille de route de ses produits. Fini l'octo-processeur ! AMD passera directement à douze coeurs, et ce dès 2010. "C'est un choix qui reflète des considérations autant techniques que financières, commente Dean McCarron, analyste chez Mercury Research. Il devrait permettre à AMD d'installer davantage de coeurs sur ses puces tout en augmentant ses marges sur les produits et en réduisant ses coûts de fabrication. » Magny-Cours et ses 12 coeurs devraient arriver début 2010 La puce à douze coeurs devrait être disponible dans les serveurs dès la première moitié de 2010. Elle porte le doux nom de Magny-Cours, en référence au grand prix de France de Formule 1 et s'installera sur la 3ème génération de socket Opteron, la plateforme G34. Celle-ci sera compatible avec la mémoire DDR3 et comprendra entre autres un chipset destiné au protocole HyperTransport 3.0 non-cohérent. La mémoire cache de niveau 3 de Magny-Cours atteindra 12 Mo. Autres éléments de la roadmap, le processeur au nom de code Istanbul et ses six coeurs devraient arriver dès le second semestre de 2009. En 2010 suivra Sao Paulo, une version de cette puce adaptée au nouveau chipset, avec 6 Mo de cache de niveau 3 et une compatibilité DDR3. Toutes les nouvelles puces seront fabriquées en 45 nm. Même le quadri-coeur Barcelona fabriqué en 65 nm sera remplacé par un autre quadri-coeurs gravé plus finement, le Shanghai.[[page]] AMD commencerait-il à tirer les leçons de ses erreurs passées? Bien évidemment plus efficaces et plus performants, les douze coeurs seront aussi des puces plus faciles à fabriquer que les octo-coeurs comme le note AMD. D'autant plus facile qu'il s'agira en réalité de deux hexa-coeurs. Petit retour en arrière : pour ses quadri-processeurs, le fondeur avait fait le choix techniquement plus performant d'installer quatre coeurs sur une même puce là où Intel jouait le vrai-faux quadri-coeurs. Le rival d'AMD a en effet installé deux double-coeurs sur ses puces. Une option qui lui a permis de se positionner sur le marché avant AMD. La puce sera plus puissante, mais plus simple à fabriquer Cette fois, AMD a compris et opte pour douze coeurs installés en deux groupes de 6, sur deux puces distinctes. Douze coeurs sur une même puce seraient plus difficiles et plus chers à obtenir. "Il ne faut pas non plus oublier, rappelle Dean McCarron, que faire l'impasse sur l'octo-coeur évite à AMD une concurrence directe avec Intel. Après son Xeon à 6 coeurs prévu au second semestre, celui-ci proposera en effet rapidement une puce à 8 coeurs." Même avec cette nouvelle feuille de route, plus raisonnable, AMD reste dans un contexte très difficile. Intel a livré 78,5% des processeurs dans le monde au premier trimestre 2008. Même si il a augmenté sa part de marché (18,7% T1 2007), AMD s'est contenté d'un petit 20,6%. Il est aussi contraint de supprimer plus de 1600 emplois au troisième trimestre. (...)

(06/05/2008 16:51:42)

AMD doit doubler sa part de marché s'il ne veut périr

En procès contre Intel pour abus de position dominante, AMD ne mâche pas ses mots. Dans ses conclusions rendues au tribunal, le fondeur précise en effet qu'à la fin de 2007, il détenait 13% du marché des processeurs, « moins de la moitié de ce qui est nécessaire pour se maintenir à long terme comme une société viable ». Expliquant que les efforts d'Intel pour les forcer à mettre la clé sous la porte sont en passe de réussir. Si l'on en croît AMD, Intel aurait tout simplement payé les constructeurs de PC pour qu'ils utilisent ses processeurs. Mais ces conclusions ont été modifiées à coups de feutre noir par le tribunal avant d'être publiées, tout comme les réponses d'Intel d'ailleurs. Déjà fragilisé par ses mauvais résultats récents et le retard pris sur le lancement de ses quadri-coeurs Opteron, AMD pourrait voir de toutes façons certains de ses clients partir chez Intel. (...)

(02/05/2008 18:00:20)

Les datacenters véritables gâchis énergétiques

McKinsey et l'Uptime Institute appellent de tous leurs voeux une refonte profonde des datacenters actuels et à venir. Si rien n'est fait, ils continueront d'être d'énormes sources de gaspillage électrique. Les consultants de McKinsey et ceux du cabinet de conseil spécialiste en datacenters, Uptime Institute, tirent la sonnette d'alarme : rien n'est fait ou trop peu est trop mal fait pour réduire la facture énergétique des datacenters. Le sujet est pourtant crucial. Entre 2000 et 2006, la consommation électrique de ces centres a doublé dans le monde et, d'ici 2010, rien qu'aux Etats-Unis, il faudrait consacrer dix nouvelles centrales électriques pour répondre à l'augmentation de leur consommation. Le plus préoccupant, c'est que l'essentiel de cette consommation est gâché en raison d'erreurs de conception et d'un manque d'optimisation. Pour les deux sociétés, on trouve les raisons de cette gabegie dès la conception. L'optimisation de la consommation passe la plupart du temps après des considérations de taille, de refroidissement et d'évolutivité. Et surtout, ce gâchis passe inaperçu ! Les DSI sont rarement responsables des factures électriques... A cette dilution de la responsabilité, s'ajoute l'absence de prise en compte de paramètres écologiques, la médiocrité de la conception des systèmes de refroidissement, une gestion inefficaces des ressources informatiques et une conception et un déploiement des applicatifs qui n'a rien à leur envier. L'utilisation moyenne d'un serveur ne dépasse pas 6% Mc Kinzey fonde cette condamnation sur des données, elles aussi, sans appel. Avec Uptime, ils estiment que l'utilisation moyenne d'un serveur ne dépasse pas les 6% et que pour 30% des machines installées, la sollicitation n'excèderait même jamais les 3%. Au final, un datacenter est utilisé à 56% de son potentiel. L'issue se trouve, bien sûr dans la consolidation et la virtualisation pour les infrastructures déjà en service. Pour celles qui viendront, il faut réfléchir pour optimiser leur conception et leurs systèmes de refroidissement. Dans ce domaine, partant d'une complète indifférence, les progrès devraient être fulgurants. Uptime et McKinsey militent pour la mise en place de l'indicateur "Corporate Average Data Efficiency (CADE)" qui mesure l'énergie consommée par le datacenter (informatique, batiment, système de refroidissement, etc.) afin de pouvoir contrôler et comparer avec précision les progrès réalisés. Il y a urgence, si rien n'est fait, les émissions de gaz à effet de serre des datacenters vont quadrupler d'ici 2020. (...)

< Les 10 documents précédentsLes 10 documents suivants >