Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1231 à 1240.

< Les 10 documents précédentsLes 10 documents suivants >


(09/02/2010 17:41:53)

Le Power7 d'IBM relance la bataille des puces pour systèmes Unix (MAJ prix)

« Cadencé de 3 à 4,14 GHz, le processeur Power7 sera livré avec 4, 6 ou 8 coeurs » a expliqué, lors d'une conférence de presse à New York le lundi 8 février, Ross Mauri, directeur de la division Power Systems d'IBM. Chaque coeur est en mesure d'exécuter quatre threads. Une puce Power7 huit coeurs est donc en mesure de mener 32 tâches simultanément, ce qui fait quatre fois plus que la génération précédentes Power6. Cette nouvelle génération de puces fait appel à un procédé de fabrication reposant sur la technologie 45 nm. IBM indique également que des améliorations ont également été réalisées au niveau de la mémoire pour permettre au processeur d'exécuter des tâches plus rapidement. Comme chez Intel, la puce d'IBM possède également une technologie baptisée TurboCore, qui permet d'augmenter temporairement la fréquence des coeurs actifs (quatre sur huit) pour gagner en performances. Cette technologie concentre également la mémoire et la bande passante sur quatre coeurs actifs pour suivre le rendement supérieur. Selon Ross Mauri, « les systèmes Power7 fourniront deux fois plus de performances que les anciens Power6 tout en consommant quatre fois moins d'énergie ». Une technologie pompeusement baptisée «Unique Intelligent Energy » permet d'éteindre les composants inactifs d'un serveur afin de réduire la consommation électrique. Cette fonction réduit également la vitesse d'horloge des processeurs d'une machine ou d'un ensemble de serveurs afin de diminuer la puissance consommée. Des machines disponibles très rapidement Suite à cette annonce, Big Blue a également lancé quatre serveurs Power7. Haut de gamme, les IBM Power 780 et Power 770 reposent sur une conception modulaire et sont livrés avec un maximum de 64 puces Power7. Le Power 755, destiné au marché des HPC, supportera quant à lui jusqu'à 32 Power7. La firme d'Armonk propose aussi la série 750 Server Express, un modèle rack 4U milieu de gamme. Les 750 Power Express et 755 seront disponibles le 19 février, tandis que les Power 770 et 780 seront à partir du 16 mars. 200 machines ont déjà été déployées chez des clients pour des premiers tests. Les prix de ces serveurs n'est pas encore connu, mais les représentants d'IBM France nous ont indiqué que leurs tarifs seraient compétitifs (voir mise à jour prix dans l'encadré). « Les serveurs Power7 offriront de meilleures performances et rentabilisent l'investissement réalisé par nos clients sur les systèmes Power6 existants », a déclaré Rod Adkins, vice-président des grands systèmes chez IBM. Si Big Blue a bien sûr qualifié sa puce Power7 « comme le processeur le plus rapide du monde », l'argumentaire marketing tournait également autour de la capacité à délivrer des performances « intelligentes », c'est-à-dire adapté aux besoins à un instant T. «Comme nous avons conçu ce système (...) Power7 pour les performances brutes mais vous verrez également une grande préoccupation autour ( ...) des performances intelligentes" souligne Rod Adkins. [[page]] Comme auparavant, ces serveurs pourront être animés par les systèmes d'exploitation AIX, i/OS (OS/400) et Linux, notamment les solutions entreprises proposées par Red Hat et Suse. En plus d'optimiser le parallélisme des applications maison telles que Websphere et Lotus Domino, IBM a également travaillé de concert avec SAP pour améliorer les demandes d'exécution multithread sur les coeurs Power7. EMeter, un éditeur qui propose des applications pour les compteurs intelligents connectés aux réseaux, a indiqué les serveur Power7 sont extensibles et capables d'analyser des données plus rapides que leurs prédécesseurs. Ces grands systèmes permettront à l'entreprise de relever les compteurs intelligents plus rapidement et introduire ainsi plus de souplesse dans la facturation des clients notamment avec les différences de tarifs horaires. Toujours grâce aux Power7, l'université de Rice a amélioré les rendements des calculs liés à l'analyse des données liées à ses recherches sur le cancer, a déclaré Kamran Khan, vice-président de l'université. Les 128 noyaux des systèmes Power7 sont en mesure de traiter les données plus rapidement, ce qui est essentiel dans certains domaines de recherche, comme le séquençage des génomes et la dynamique moléculaire (simuler par le calcul informatique l'évolution d'un système de particules au cours du temps), a déclaré Kamran Khan. En France, Thierry Meynlé de Divalto, travaille à l'optimisation des ses ERP pour PME-PMI pour la plate-forme Power7. Le middleware a été réécrit à90% pour tirer profit du multithread et améliorer la gestion de la mémoire. Avec Aix 6.1, les Power7 sont capables de traiter jusqu'à 128 threads, avec Aix 7 on passera à 1024. En attendant, Aix 6.1 est capable de dispatcher les threads pour équilibrer la charge de travail. Power7 contre Itanium 9300, les annonces se télescopent Le lancement de ces puces Power7 pourrait déclencher une nouvelle bataille sur le marché des processeurs haut de gamme où IBM retrouve ses challengers habituels, Intel avec son Itanium et Sun Microsystems avec son Sparc. Intel vient d'ailleurs de lancer son Itanium 9300 Tukwila qui équipera les serveurs haut de gamme Hewlett-Packard Integrity. Au cours du troisième trimestre2009, IBM était le leader sur le segment des grands systèmes : 31,8 % de parts de marché (en valeur), suivi par HP avec 30,9 %. Le marché des Unix - y compris le matériel et les applications - est considérée comme étal ou en baisse avec la progression des serveurs x86. Au cours du troisième trimestre 2009, le marché des systèmes Unix a diminué de 23,4 % (en valeur) par rapport au troisième trimestre de 2008 selon IDC. Mais selon Rod Adkins avec l'augmentation de la demande en matière de traitement des données, le besoin de serveurs Unix rapides et fiables va croître. «Le marché des Unix reste un marché très important et en bonne santé», souligne Rod Adkins. « Le marché va croitre de plusieurs milliards de dollars, et les systèmes Power continueront à dominer ce secteur. IBM fournit aujourd'hui des options de tarification plus agressives pour les serveurs Unix, ce qui pourrait mettre les systèmes Power7 en concurrence avec les serveurs de domaines «traditionnels», conclut-il. (...)

(09/02/2010 12:22:26)

Cisco fédère et optimise les datacenters distants

Cisco dévoile des solutions dédiées aux datacenters pour faciliter l'interconnexion des centres de calculs distants et optimiser les ressources dans le cadre d'une stratégie cloud computing. Les produits concernés sont les commutateurs Ethernet, Nexus 7000 et, Catalyst 6500 et 4900M. Le premier est doté d'un système d'exploitation baptisé Overlay Transport Virtualization (OTV) qui facilite l'interconnexion entre des datacenters dispersés géographiquement, en optimisant le routage des adresses MAC. OTV encapsule et crée des tunnels Ethernet par un routage infrastructure de niveau 3, réunissant ainsi les différents datacenters dispersés au sein d'une seule entité logique. Les administrateurs réseaux peuvent ainsi gérer les charges de travail des différents centres de calculs sans avoir à redéfinir ou reconfigurer leurs networks. Cet élément trouve toute son importance dans la mise en place de solution de virtualisation, telle VMotion de VMware pour répartir les charges de travail entre des centres de calculs éloignés. Si d'autres solutions d'interconnexion des datacenters existent, comme l'utilisation de la technologie Pseudowire, dans le cas d'un réseau MPLS ou de fibre optique, OTV peut alors être utilisé comme facilitateur ou accélérateur de ces interconnexions. Il sera disponible sur le Nexus 7000 en avril prochain. Cisco indique qu'il étendra cette solution sur d'autres plateformes. Le routage en version XL En parallèle de cette annonce, Cisco indique que les commutateurs Nexus 7000 10 Gigabit Ethernet intégreront une licence logicielle évolutive en fonction de la taille de la table de routage et de la capacité des contrôles d'accès. Ces modules peuvent comprendre 8 ports 10 Gigabit Ethernet ou 48 ports Gigabit Ethernet avec une licence logicielle « XL » augmentant les entrées de la table de routage de 128.000 à 1 million. Le module 48 ports Gigabit XL, sera disponible en avril, au prix de 27.000 dollars. Aucun prix n'est encore annoncé pour le module 8 ports 10 Gigabit. Les prix sont en revanche connus pour les modules 10 GBase-T des commutateurs Cisco Catalyst 6500 et 4900M. Ainsi, pour le Catalyst 6500 avec un superviseur 720, le module 16 ports GBase-T coûtera 22 500 dollars. Il permet d'étendre de 100 mètres la connexion via la paire de cuivre entre serveurs et représente une alternative moins coûteuse à la connexion fibre basée sur le module 10 Gigabit du Catalyst 6500. Pour le Catalyst 4900M, serveur au sommet des baies, Cisco déploie un module de 8 Ports 10 GBase-T pour un prix de 3.500 dollars. Il permet également d'étendre la connexion des serveurs via la paire de cuivre à 100 mètres. Ces modules seront disponibles à second trimestre 2010. Accélération et optimisation en mode virtuel Avec le développement des stratégies de cloud computing, du mode Saas (Software as a Service) et de la virtualisation, Cisco répond aux besoins d'accélération et d'optimisation des applications. Il le fait à travers deux solutions. La première déjà disponible se nomme WAAS (Wide Area Application Services) qui intègre les applications dans l'environnement Cloud ou en mode SaaS, comme Cisco WebEx par exemple. Il se charge d'automatiser certaines règles de sécurité comme le cryptage SSL et d'optimiser la délivrance du service à l'utilisateur final. De son côté, ACE (Application Control Engine), dédié à la répartition de charge, intègre un module logiciel additionnel qui permet aux utilisateurs des solutions de virtualisation de VMware d'obtenir une surveillance plus efficace des machines virtuelles à partir de la console de supervision maison vCenter. Ce logiciel est essentiellement une interface de programmation (API) qui s'intègre dans la suite de gestion d'applications de Cisco (Application Networking Manager) avec l'outil vCenter. L'objectif étant pour les utilisateurs des différentes solutions de disposer d'un tableau de bord unique pour gérer la répartition des charges des différents serveurs. Cette évolution logicielle sera disponible au mois de mars. Enfin, Cisco annonce sa volonté de créer des modules dédiés à la technologie Fibre Channel sur Ethernet (FCoE) pour le Nexus 7000 et les serveurs de stockage MDS SAN dans la seconde moitié de cette année. Actuellement cette technologie est disponible sur le commutateur 10 Gigabit Nexus 5000. (...)

(05/02/2010 16:36:36)

Un datacenter moins énergivore chez IBM

C'est dans le Research Triangle Park situé en Caroline du Nord, qu'IBM a choisi de construire son dernier datacenter pour un budget global de 350 millions de dollars. De la taille d'un terrain de football - environ 20.000 m2 - il utilise les dernières avancées que Big Blue a réalisé en matière de réduction de la consommation électrique : ici, son datacenter mise sur l'air extérieur pour être refroidi, au fur et à mesure que la température intérieure augmente. Pour cela, ce centre, qui supportera des plates-formes de type Cloud, a été équipé de milliers de capteurs qui surveillent de façon dynamique la température, l'humidité, la circulation de l'air et des circuits, tous intégrés dans le système de gestion informatique du bâtiment. «Nous avons créé ici un datacenter parmi les mieux équipés, doté d'une quantité d'interconnections et de fonctions intelligentes parmi les plus sophistiquées, jamais réalisées dans nos précédents centres », a déclaré Joe Dzaluk, vice-président d'IBM, responsable de la gestion des infrastructures et des ressources auprès de la division Global Technology Services. S'il estime que le centre consommera environ 6 mégawatts lors de sa mise en service, Joe Dzaluk précise qu'il a été conçu pour occuper jusqu'à 30.000 M2 et consommera alors 15 mégawatts. Un datacenter à 27°, refroidi par la température extérieure Pour réduire sa consommation d'énergie, IBM a adopté les dernières recommandations environnementales de l'American Society of Heating, Refrigerating and Air-Conditioning Engineers, qui autorise pour ces centres de calcul une température intérieure de 27 degrés C°, contre 25 degrés dans l'ancienne recommandation, du fait notamment des améliorations apportées dans la conception des installations. La température maximale implique aussi un certain degré d'humidité. IBM indique avoir fixé la température de départ à 24 degrés et laquelle sera progressivement augmenté, en raison de la présence d'équipements non-IBM au sein du datacenter. Le centre utilisera l'air extérieur pour refroidir les radiateurs et l'eau utilisée pour le refroidissement. IBM estime pouvoir profiter, pendant plus de six mois par an, du niveau des températures extérieures pour son système de refroidissement. Joe Dzaluk affirme que dès les premières mesures, on pourra constater que ce centre est parmi les plus performants au monde et s'attend un ratio d'efficacité énergétique de 1,2 à 1,3. Facebook, qui a récemment annoncé la création d'un nouveau data center à Prineville, Oregon, a estimé son PUE (Power Usage Effectiveness) à 1,15. Une norme d'efficacité énergétique en avril Mais ce PUE, qui représente une moyenne de la puissance totale utilisée dans une installation, depuis les systèmes de refroidissement, l'éclairage, l'alimentation des équipements, jusqu'à la charge associée à tous les matériels informatiques, les serveurs et les unités de stockage, n'est pas parfait. Pour David Cappuccio, chercheur, spécialiste des infrastructures chez Gartner, « le PUE ne nous dit pas si une entreprise utilise ses équipements de manière efficace. » L'agence de protection de l'environnement américaine cherche une méthode pour permettre aux gestionnaires de datacenters de comparer leur efficacité énergétique aux normes de l'industrie. L'agence a donc recueilli les données de plus d'une centaine d'entreprises afin d'élaborer un étalon de mesure significatif - elle pense pouvoir en mettre un au point d'ici avril - à l'instar de son label «Energy Star», qui pourrait prendre la PUE comme base ou quelque chose de similaire pour évaluer l'efficacité énergétique des datacenters. Pour David Cappuccio la norme préparée par l'agence environnementale va accroître la pression sur les gestionnaires de datacenters, car ils seront amenés à expliquer comment ils se situent par rapport à cette recommandation du gouvernement fédéral. « Cela va aussi stimuler le business de la construction de datacenters, » a t-il déclaré. Les grands éditeurs, comme IBM, Hewlett-Packard et plus récemment Dell, depuis qu'elle a acquis Perot System, se sont employés à ajouter dans leurs produits des éléments répondant aux besoins de leurs clients. David Cappuccio fait remarquer que le consulting en matière de datacenters pourrait également devenir un bon vecteur d'activité pour ces entreprises. «Si IBM, contactée par un client pour construire un centre de calcul, donne satisfaction, il y a de fortes chances pour que celui-ci veuille utiliser les services d'IBM pour ses autres besoins ». (...)

(04/02/2010 18:06:30)

Combien de machines virtuelles sur un serveur, les avis d'experts ne concordent pas

Exécuter un ensemble de serveurs virtuels - et les applications associées - sur un serveur physique animé par un seul système d'exploitation (VDC-OS ou autre) semble assez facile au premier abord. Il est toutefois nécessaire de s'assurer que le matériel peut supporter cette charge supplémentaire, ce qui peut devenir un véritable casse-tête en raison de la variété presque infinie de logiciels qui peuvent s'exécuter dans un environnement virtuel. Chaque demande entraîne un ensemble de requêtes légèrement différentes sur le matériel et le système d'exploitation hôte, explique Chris Wolf, analyste chez Burton Group. La consolidation de serveurs physiques en machines virtuelles devrait permettre de réaliser de substantielles économies, mais il est fortement déconseillé de lésiner sur la partie matérielle pour éviter de tirer vers le bas les performances des applications et même, au final, d'aggraver les risques de non-disponibilité pour les utilisateurs finaux, indique Ian Scanlon, directeur des opérations pour ComputaCenter, un centre de données et de services informatiques basé à Londres, mais couvrant la majeure partie de l'Europe. «Si vous mettez cinq machines virtuelles sur un serveur, vous avez au final six systèmes d'exploitation en fonction et toutes les applications associées. Et vous devez garder la main pour gérer au mieux les niveaux de services pour garantir les meilleures performances aux applications les plus importantes", précise Ian Scanlon. "Nous avons fini par installer beaucoup plus de mémoire vive que ce qui avait été défini lors de nos tests de qualifications ». Obtenir des estimations précises et détaillées sur la façon dont un serveur va fonctionner comme un hôte VM est également compliqué par les capacités inégales des jeux de composants des cartes mères chipsets qui supportent les charges de travail virtuelles et les hyperviseurs, indique Gordon Haff, analyste en informatique de haute performance chez Illuminata. Les machines virtuelles exploitent beaucoup plus intensivement qu'un serveur physique la mémoire cache des processeurs et les puces ne réagissent pas toutes de la même façon aux requêtes des applications et des hyperviseurs, rappelle-t-il. Intel et AMD ont conçu des processeurs adaptés aux besoins de la virtualisation et de la migration des serveurs virtuels et leurs prochaines générations de puces - Nehalem-EX avec huit coeurs chez le premier et Magny-Cours avec 12 coeurs chez le second - feront encore mieux. Un serveur donné peut ainsi avoir aujourd'hui entre deux et huit processeurs, chacun ayant entre deux et huit coeurs de traitement. Dans quelle mesure la configuration d'un serveur répondra à la charge idiosyncrasique d'un logiciel est une variable presque impossible à prédire sans une étude précise et minutieuse, commente Andi Mann, analyste chez Enterprise Management Associates (EMA). [[page]] Même en demandant des informations techniques à un commercial avant-vente ou directement aux constructeurs, vous n'obtiendrez pas de réponse précise sans une évaluation détaillée de la charge de travail que vous envisagez de mettre sur le serveur. Bien qu'il n'y ait pas vraiment de règles rapides au sujet de la question matérielle, une démarche peut vous aider à obtenir des réponses suffisamment proches pour déceler les points faibles d'une offre et savoir ainsi comment la renforcer, explique Massimo Re Ferre, architecte IT senior chez IBM. Premièrement, sur chaque coeur issu d'un nouveau processeur Intel ou AMD, vous pouvez associer trois à cinq machines virtuelles, dit-il. C'est une vision plus optimiste que celle de Ian Scanlon, qui estime qu'il est préférable de se limiter à cinq ou six machines virtuelles sur un serveur unique. Si les applications exigent des ressources intenses comme avec les bases de données ou les ERP, il même recommandé, selon lui, de se limiter à deux VM. Trop se concentrer sur la consolidation conduit inévitablement à tirer les performances vers le bas et entraine l'insatisfaction des utilisateurs. Deuxième règle de Massimo Re Ferre : pour chaque coeur sur un processeur récent, ajouter sans hésiter de deux à quatre Go de mémoire vive. Un point qui coïncide avec l'évaluation de Ian Scanlon : 48 Go de Ram recommandés sur chaque serveur lame. "Une fois la mémoire vive en place, nous n'avons pas connu de problèmes de performance à proprement parler », précise-t-il. Les autres points à suivre de près Premièrement: ne pas oublier la tuyauterie. Avec plusieurs serveurs en action, les exigences en terme d'entrées/sorties deviennent beaucoup plus importantes. Assurez-vous d'avoir suffisamment de liens entre les baies de stockage et le réseau pour supporter la charge, explique Gordon Haff, de la société de conseil Illuminata. Cisco répond d'ailleurs à ce problème avec ses serveurs maison ESX équipés d'une intergace 10 Gigabit Ethernet. Deuxièmement: construire une clôture. Les machines virtuelles (VM) sont devenues très faciles à lancer et difficiles à suivre ensuite avec la prolifération des serveurs. Un grand nombre de VM finissent par fonctionner dans leur coin sans être réellement utilisées. C'est un élément qui est devenu très courant avec la multiplication des machines virtuelles. Tuer tous les serveurs non utilisés et réallouer l'espace disque réservé a ainsi permis à ComputaCenter de récupérer de nombreuses ressources qui ont ensuite pu être utilisé pour d'autre tâche en attendant de nouveaux investissements, indique Ian Scanlon. Troisième: Utilisez les outils qui sont disponibles sur le marché pour obtenir une cartographie détaillée de votre installation, conseille Chris Wolf. VMware commercialise vCenter VMware CapacityIQ 1.0, et Microsoft propose ses outils d'évaluation et de planification pour Hyper-V pour guider les clients. Des solutions particulièrement intéressantes quand on dispose d'environnements qui incluent VMware et Hyper-V. De nombreux outils tiers ne couvrent pas les deux versions - HP dispose par exemple d'un outil de calibrage spécialement conçu pour VMware et d'un autre pour Hyper-V. Ceux qui sont plus ou moins affiliés à VMware ou Microsoft ne peuvent pas fournir une évaluation indépendante explique encore Andi Mann d'Enterprise Management Associates. Parmi les outils recommandés citons toutefois, PowerRecon de Novell, Data Center Intelligence de Cirba, Balance Point d'Akorri et Capacity Modeler de Vkernel. En fin de compte, il est possible de construire un profil détaillé pour bien déployer ses machines virtuelles. Mais vu la quantité de temps et d'argent nécessaire pour une évaluation professionnelle, il est quelquefois plus intéressant de rester sur des serveurs qui ne fonctionnent qu'à 70% de leurs capacités plutôt que de chercher à atteindre à tout prix les 95% de taux d'utilisation conclut Massimo Re Ferre. (...)

(04/02/2010 16:03:20)

HP réduit la taille et le prix de son conteneur pour serveurs

Hewlett-Packard lance une version plus petite de son centre informatique portable, de la moitié de la taille de son premier modèle. HP espère que la baisse de prix grâce à l'option petit système aidera à attirer plus de clients. Le constructeur a baptisé son rack « Performance Optimized Datacenter » ou POD. Il peut accueillir 10 racks de matériel informatique, comparativement aux 22 racks du grand modèle. Des sociétés, dont Microsoft, utilisent ces containers comme un bloc de base afin de construire un centre informatique, car ils leur permettent d'ajouter de nouvelles capacités rapidement, et parce que leur conception fermée les rend très éco-energétiques. Le prix démarre à 600.000 dollars, sans le matériel informatique à l'intérieur, soit la moitié du prix du conteneur grand modèle. Totalement configurés, les conteneurs peuvent facilement atteindre plusieurs millions de dollars. HP affirme que son conteneur peut fournir une moyenne de 29 kilowatts par rack, et au maximum 34 kilowatts. Cela se compare aux 12 kilowatts délivré par rack dans un centre informatique de dernière génération. Chaque rack est desservi par quatre ventilateurs à vitesse variable. Le POD a un ratio PUE de 1,25, comparativement à 2,1 pour un centre informatique moyen. Le sigle PUE, ou efficacité de l'alimentation électrique, est un ratio qui mesure la puissance totale fournie à une installation par rapport à la quantité d'énergie servant réellement à alimenter le matériel. (...)

(03/02/2010 16:03:03)

Tukwila, la dernière puce Itanium d'Intel, arrive enfin

Après de nombreux retards et des problèmes de développement reportant sa sortie depuis plusieurs semestres, Intel a déclaré mardi avoir commencé la fabrication de son processeur Itanium connu sous le nom de code Tukwila. En février dernier, Intel avait déjà reporté la sortie de la puce pour y ajouter des interconnexions plus rapides et un support pour la mémoire DDR3 notamment. En octobre, la sortie avait à nouveau été retardée pour permettra l'ajout d'éléments améliorant l'évolutivité des applications. Selon le blog d'Intel, le lancement officiel de la puce est cette fois fixé pour le premier trimestre de cette année. « Tukwila sera probablement lancé lundi, » a déclaré Nathan Brookwood, analyste chez Insight 64, ajoutant qu'il était « plus qu'un peu tard, », mais pas trop tard. Le marché des processeurs haut de gamme évolue à un rythme glaciaire, et les architectures complexes comme celles des Itanium demandent du temps pour la mise point et la fabrication. «Dans cette catégorie de marché, il est plus important de livrer la bonne puce plutôt que de la lancer trop tôt, » a ainsi déclaré Nathan Brookwood. « Les systèmes fonctionnant avec des architectures haut de gamme comme celles de l'Itanium doivent être robustes et fiables » précise-t-il encore. Cette annonce arrive peu avant l'International Solid State Circuits Conference, qui se tiendra à San Francisco du 7 au 11 février prochain, et où Sun Microsystems et IBM seront présents pour discuter de leurs processeurs pour serveurs haut de gamme. Intel fera une conférence de presse lundi, pour annoncer un nouveau produit, mais un porte-parole a refusé de confirmer s'il s'agissait de Tukwila. Une puce pour serveurs à haute disponibilité Processeur 64 bits gravé en 65 nm, Tukwila a été conçu pour fonctionner sur des serveurs à faible tolérance de pannes nécessitant. C'est le plus rapide des processeurs Intel Itanium, « jamais réalisé, » précise le constructeur. Il apporte de nombreuses performances et une architecture améliorée qui dynamisent les fonctions système. « Tukwila fait plus que doubler les performances de l'Itanium précédant et apporte plus d'évolutivité, de fiabilité ainsi que des fonctions de virtualisation», indique Intel. La puce qui intègre quatre coeurs , est une sérieuse remise à niveau de l'actuelle puce Itanium série 9100, nom de code Montecito, introduite en 2006. Elle est en concurrence directe avec les processeurs des serveurs haut de gamme proposés par Oracle/Sun (Sparc) et IBM (Power7 bientôt dévoilé). Même si Intel n'a pas eu beaucoup de succès avec son processeur Itanium - seuls quelques fournisseurs comme HP - qui a abandonné son PA-Risc - ont intégré ce type de puces dans leurs systèmes,« les fournisseurs attendent une mise à jour de l'Itanium pour rester en compétition avec le prochain Power7 d'IBM, » a indiqué Nathan Brookwood. « Malgré le retard, il n'y a pas d'incertitude sur l'avenir de l'Itanium : Intel a défini une feuille de route de six ans pour son processeur, » a-t-il ajouté. Poulson le successeur de Tukwila, qui sera gravé en 32 nanomètres, est déjà sur les rails (Intel n'a pas fourni de calendrier pour la livraison de Poulson) et Kittson déjà nommé pour lui succéder. Au cours du premier semestre 2010, Intel doit lancer d'autres puces serveur. Sont attendues les Westmere pour serveurs bas et milieu de gamme, mais surtout la Nehalem-EX, « la puce serveur la plus rapide d'Intel à ce jour, » selon Paul Otellini PDG d'Intel. Nehalem-EX, une puce huit coeurs, destinée aux systèmes haut de gamme gérant les bases de données, « fait nettement évoluer les serveurs x86, mais n'égale pas l'Itanium en matière d'architecture et de robustesse, » selon Nathan Brookwood. Les puces Itanium ont toujours été destinées à concurrencer les mainframe et grands systèmes Unix avec des solutions comme la gamme Integrity NonStop Server de HP. (...)

(02/02/2010 12:37:59)

3Com décroche l'homologation « Certified Green » pour ses commutateurs 10 Gigabit

Cette certification, la première du genre octroyée à des équipements pour datacenters, concerne aussi bien le commutateur de coeur H3C S12508 que le « top of rack » H3C S5820X. L'évaluation de Miercom s'est faite sur plusieurs facteurs : la conception des solutions H3C, adossée à une technologie ASIC basse consommation et d'une grande richesse fonctionnelle, des alimentations et des composants d'entrée/sortie modulaires et à haut rendement, ainsi qu'un ensemble de fonctions d'économie d'énergie pouvant être configurées par l'intermédiaire d'une interface d'administration. Rob Smithers, CEO de Miercom a confirmé que « dans le cadre des essais effectués, ces commutateurs ont fonctionné à un débit maximum tout en consommant moitié moins d'énergie que les modules 10 Gigabit Ethernet concurrents. » Au final, ces commutateurs contribuent aussi à une baisse du coût d'exploitation des centres informatiques. Cette efficacité énergétique et la précision des données relatives à la consommation d'énergie vont devenir dans un avenir proche des paramètres essentiels. En effet, d'ici à fin 2010, plus de la moitié des datacenters de grande taille auront atteint leur niveau de consommation d'énergie maximum. Ce phénomène risque de confronter les entreprises à une crise énergétique majeure, dans la mesure où elles seront dans l'incapacité de faire évoluer leurs activités de traitement des données en fonction de leurs besoins. « Pour éviter cela, les entreprises doivent non seulement mesurer leur propre consommation d'énergie mais aussi exiger des fournisseurs qu'ils publient les données relatives au rendement énergétique de leurs produits, » indique le communiqué de 3Com. Ces informations représentent un critère clé pour les clients à la recherche d'outils leurs permettant d'assurer la durabilité de leurs centres informatiques. Jérome Larchet, Directeur de 3Com.France, voit dans ces produits une opportunité "pour réaliser une nouvelle génération de datacenters durables et évolutifs." Car, « réduire la consommation d'énergie et maximaliser la capacité sont deux axes de travail majeurs pour les DSI. C'est tout particulièrement vrai en ce qui concerne les datacenters où les dépenses d'énergie augmentent rapidement et où les limitations de puissance peuvent empêcher l'évolution de la capacité informatique nécessaire pour répondre aux besoins de l'entreprise, »précise t-il. Le rapport, fait par Miercom, salue aussi la technologie H3C IRF (Intelligent Resilient Framework) comme étant une autre innovation « écologique » de 3Com. En effet, la technologie IRF contribue à réduire la consommation d'énergie en aidant les utilisateurs à simplifier et à réduire leur architecture réseau en une infrastructure plus « plate » à deux niveaux qui requiert un nombre réduit de plates-formes et couches réseau discrètes tout en diminuant les exigences de consommation et de refroidissement. (...)

(01/02/2010 14:57:31)

Trimestriels CA : le nouveau PDG souligne l'accent mis sur le cloud computing

Le tout nouveau PDG de CA, William McCracken, s'est déclaré satisfait du troisième trimestre fiscal de son groupe qui affiche un chiffre d'affaires de 1,128 Md$, en augmentation de 8% par rapport aux trois derniers mois de 2008. Le bénéfice net (Gaap) de l'éditeur américain a progressé de 24% à 257 M$ et la société a gagné un point sur sa marge opérationnelle (Gaap) qui s'élève à 31% du chiffre d'affaires. William McCracken a notamment rappelé que les tout derniers rachats de CA, NetQoS et Oblicore, ont été faits dans des secteurs (supervision de la performance réseau et gestion des SLA) qui lui permettent de renforcer ses offres de cloud computing. Au poste de PDG, il succède à John Swainson, qui avait annoncé son départ à la retraite en septembre dernier. Depuis cette date, il occupait déjà les fonctions de président exécutif de la société dont il a rejoint le conseil d'administration en 2005. Il avait auparavant passé 36 ans chez IBM. Sur son troisième trimestre, CA souligne la demande importante enregistrée sur sa gamme de produits « Mainframe 2.0 », ainsi dénommée pour marquer la volonté du fournisseur de simplifier l'administration des grands systèmes. Sur la période, la société dit avoir également répondu à une forte demande sur ses offres de gestion des identités et des accès sécurisés, sur sa gamme CA Wily de gestion de la performance applicative, ainsi que sur ses offres de gestion de projets fournies en ligne, CA Clarity. Pour l'ensemble de l'exercice 2010, la société prévoit de réaliser un chiffre d'affaires compris entre 4,3 et 4,4 Md$, soit une augmentation de 2 à 4% par rapport à l'exercice précédent. (...)

(29/01/2010 16:57:04)

Trimestriels Microsoft : résultats en hausse grâce à Windows 7

Le géant de Redmond affiche de bons résultats pour le deuxième trimestre de son année fiscale 2010. Une hausse largement portée par les ventes de son système d'exploitation Windows 7. Avec 6,7 milliards de dollars de bénéfice net soit 60 % plus qu'en 2008 à la même période, Microsoft peut se féliciter du bon accueil de son système d'exploitation Windows 7 sur le marché depuis octobre dernier. L'éditeur annonce que 60 millions de Seven ont déjà été vendus (OEM et retail). « Le meilleur score de vente jamais atteint en un trimestre ! » ajoute Bill Koefoed, Directeur général des relations ente investisseurs pour Microsoft. Microsot peut dire merci aux pré-ventes de Seven Pourtant, si le chiffre d'affaires (arrêté au 31 décembre 2009) a atteint 19,02 milliards de dollars (+14% par rapport à 2008), il est en réalité enjolivé par le milliard sept générés par les pré-ventes du système d'exploitation de Microsoft. Sans ce revenu différé, le bilan de Redmond atteint 17,31 Md$ et offre un bénéfice par action de 60 cents. Cela correspond aux prévisions des analystes financiers qui prévoyaient un chiffre d'affaires de 17,9 Md$ et un bénéfice par action de 59 cents selon Thomson Reuters. L'action Microsoft a gagné 62 % au cours des 12 derniers mois, à comparer à un gain de 40% pour le Nasdaq. Enfin, malgré la hausse générale, toutes les branches de Microsoft ne se portent pas aussi bien: la division entreprise et le secteur consoles (jeux et périphériques) enregistrent une baisse de leurs chiffres d'affaires respectifs : 4,7 Md$ (-2,8%) et 2,9 Md$ (-10,9%). En revanche la division serveurs et outils de développement se porte bien et affiche un chiffre d'affaires de 3,8 Md$ (+2,3 %). La section Windows et Windows Live reste la plus porteuse: les bénéfices atteignent 6,9 Md$, soit une progression de 72 % du chiffre d'affaires, l'équivalent du bénéfice net de l'entreprise. Office 2010 devrait fortement impacter l'année en cours Ce fut la dernière clôture fiscale dirigée par Chris Liddell qui a quitté le poste de directeur financier de Microsoft le 31 décembre 2009. C'est Peter Klein, son remplaçant qui en commente le bilan: « Ces bons résultats n'ont été possibles que parce qu'il y a eu une demande plus forte de la part des utilisateurs de PC ». L'éditeur estime en effet que le nombre de clients augmente de 20% d'une année sur l'autre, mais les ventes de PC sont, quant à elles, restées les mêmes qu'en 2008. De plus, le marché des netbooks, pourtant en pleine expansion, ne représente aujourd'hui que 11% des ventes de Microsoft, exactement comme en 2008 à la même période. L'entreprise affirme cependant que la hausse devrait reprendre avec la sortie de nouvelles gammes :« Même si nous ne savons pas le temps que cela prendra, nous devrions réussir à générer de nouveaux profits dès que le marché sera relancé » affirme Peter Klein. Le nouveau directeur financier a ensuite indiqué que la sortie de Microsoft Office 2010 en juin prochain constituerait l'une des principales sources de revenus de l'année, tout comme la plate-forme cloud Azure et le système de commandes pour Xbox, un projet pour l'instant connu sous le nom de code « Natal ». (...)

(28/01/2010 16:39:36)

Le marché mondial des microprocesseurs pour PC a progressé de 2,5% en 2009

En volume le marché mondial des microprocesseurs pour PC a progressé en unités de 2,5% en 2009, selon IDC. En valeur, ce marché a décliné de 7,1% à 28,6 milliards de dollars. Pour 2010, IDC anticipe une hausse de 15,1% en unités. Pour le seul 4ème trimestre, cette progression atteint 31,3%, moins qu'au 3ème trimestre 2009, plus qu'au 4ème trimestre 2008. Cette dernière donnée montre que l'industrie du PC anticipe bien une sortie de crise, estime IDC. Toutefois, le cabinet situe cette échéance à fin 2010 et reste donc prudent. En examinant les chiffres par type de PC, IDC observe trois éléments. Les processeurs Atom d'Intel, destinés aux netbooks ont augmenté de 11,7%, ceux pour serveurs x86 de 14,1%, les processeurs pour desktops ont augmenté de 4,8%. Concernant les parts de marché des industriels, IDC observe de légères variations. Intel a obtenu 79,7% de parts de marché, une perte de 0,7%, AMD passe à 20,1%, en progression de 0,8%, VIA Technologie obtient 0,3%. Par industriel et par type de processeur, Intel obtient 86,8% des parts dans le segment des processeurs pour PC, en baisse de 0,3%, AMD progressant de 0,8% à 12,8%, VIA est à 0,3% en baisse de 0,5%. Dans le segment des serveurs et stations de travail, Intel se situe à 89,9% en progression de 3,2%, AMD perd 3,2% à 10,1% de parts de marché. Enfin, dans le segment des PC de bureau, Intel se situe à 71,1% en recul de 1,1%, AMD est à 28,6% en hausse de 1,2%. (...)

< Les 10 documents précédentsLes 10 documents suivants >