Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1911 à 1920.

< Les 10 documents précédentsLes 10 documents suivants >


(12/02/2008 17:55:35)

Citrix adopte la Xen attitude

Après plus d'une décennie passée dans l'ombre de Microsoft à évoluer sur le marché de l'affichage distant, Citrix fait une apparition remarquée sous le soleil resplendissant de la virtualisation. Fort du rachat de la technologie Xen en août dernier, l'éditeur commercialise une logithèque entièrement revue à la sauce VM (virtual machine). A sa décharge, il est aujourd'hui un des rares à pouvoir revendiquer le mot de virtualisation en commettant le moins d'abus de langage. C'est ainsi que Presentation Server devient Xen App et prend désormais en charge la "virtualisation" des applications, que celle des serveurs est assurée par XenServer 4.1 et que XenDesktop assure la virtualisation complète des postes de travail. En clé de voûte marketing au nouveau Citrix, on trouve le concept de "delivery center". Dans l'esprit de ses promoteurs, ce terme, qui remplace celui de "data center" permet d'insister sur les capacités de pilotage dynamique qu'ils revendiquent avec l'outil Workflow Studio. Un gestionnaire de processus qui permet de déclencher des actions (déplacement d'une VM, par exemple) en fonction de certains événements (modification de la charge, etc.). Sur le papier, Citrix est aujourd'hui l'acteur le mieux placé sur les différents aspects de la virtualisation.[[page]] Il affiche un spectre plus large que celui de VMware. S'ajoute à cette exhaustivité, son étroite collaboration avec Microsoft. Ce dernier, en position de challenger, utilise Citrix comme propulseur. Celui-ci oeuvre à pouvoir commercialiser son offre avec, indifféremment, son hyperviseur Xen ou Hyper-V, celui de Microsoft. Les deux hyperviseurs supporteront le même format (VHD, Virtual Hard Disk) et pourront être administrés par les outils de Citrix. De là à se demander si Microsoft, qui se perd en amabilités sur Citrix, ne va pas commercialiser sous son nom une partie de l'offre Citrix, il n'y a qu'un pas. On notera d'ailleurs que Citrix a calé l'agenda de ses annonces sur celui de Microsoft : l'éditeur a attendu l'annonce de Windows Server 2008, faite aujourd'hui par Microsoft France sur les TechDays avec une quinzaine de jours d'avance sur le reste du monde, pour effectuer sa propre annonce. (...)

(12/02/2008 15:11:10)

Une lame quadri Itanium, fer de lance d'HP sur les serveurs d'entreprise

HP annonce la BL807c, une double lame qui peut embarquer jusqu'à quatre Itanium 9100 bi-coeur. Elle vient s'enficher dans un châssis C-Class, lequel peut recevoir indifféremment des lames animées par des processeurs x64. A défaut de pouvoir être plus révolutionnaire que son processeur Itanium, cette lame marque une tendance de fond : celle de la généralisation d'un format né dans le monde x64 dont les qualités sont à la mesure des changements qu'il engendre. Plus denses et plus économes, les serveurs en lames sont surtout mieux adaptés que ceux en rack à une administration centralisée pour une architecture systèmes qui mêle plus facilement virtualisation et granularité. HP, qui ne perd pas une occasion de promouvoir sa vision du datacenter de nouvelle génération, insiste sur les facilités d'administration des lames. Une facilité qui s'étend jusqu'au niveau prosaïque, mais coûteux, du câblage. Autant d'atouts induisent des inconvénients. Selon Benoît Maillard, chef produit de la division Business Critical Systems (BCS) d'HP France, la densité d'une configuration lame peut multiplier par 10 la consommation électrique au mètre carré. C'est une des raisons pour laquelle les responsables de datacenters construits aux alentours de l'an 2000 peuvent être réticents à déployer des lames. Ils craignent l'apparition de points chauds. L'autre grande raison est l'inertie des mentalités. L'exploitation du potentiel des lames en terme d'administration implique à la fois une formation et une remise en cause des compétences. Mais c'est à ce prix que l'on peut espérer des économies d'énergie de l'ordre de 25% et des gains considérables en temps de maintenance. Avec la lame BL807c, on atteint le niveau de performances des RX6600, serveurs de milieu de gamme, au bémol près d'une capacité mémoire maximale de 96 Go contre 192 Go. Pour les utilisateurs venant du monde des serveurs BCS, le choix d'un châssis, et de ses lames, se traduit par une baisse du prix du ticket d'entrée. Une démarche à l'inverse de celle que redoutent les utilisateurs de serveurs x64 en rack. Quant au processeur Itanium, il poursuit son bonhomme de chemin. Benoît Maillard précise que sur cent de ces processeurs Itanium livrés par HP, seulement la moitié d'entre eux ferait tourner Unix (et VMS) dans le cadre de l'évolution du parc de machines à base de processeurs PA-Risc ou Alpha. Trente accueilleraient Windows Server et vingt Linux. Une répartition qui vient à propos pour étayer l'idée d'un Itanium qui s'inscrirait sans à-coup dans la continuité des systèmes x64 pour accompagner la montée en charge. Une certitude, chez HP, il est au coeur des évolutions qui font converger l'ensemble des systèmes d'entreprise historiques vers une architecture harmonisée. Il participe ainsi à la baisse du coût des transactions. Là où, en 2004, un rx46400, capable d'atteindre 161 000 tpm, mettait la transaction Tpcc à 3,94$, un rx6600, qui atteint 372 000 tpm, a permis de baisser à 1,81$. (...)

(11/02/2008 17:39:49)

Le Green Grid prône la coordination de l'IT verte en Europe

Le comité technique du consortium Green Grid vient de rendre son premier verdict : le manque de régulation européenne ou d'initiatives volontaires s'attaquant au problème de l'optimisation de la consommation d'énergie dans les data centers risquent d'engendrer la confusion, un message confus et des activités dispersées. Le Green Grid, créé en février 2007, réunit l'ensemble de la chaîne des intervenants d'un centre de calculs. Son objectif est notamment de mesurer et d'analyser la consommation d'énergie dans les data centers afin d'en déduire des bonnes pratiques. « D'un point de vue européen, il y a un besoin de tests et de coordination indépendants adaptés aux conditions européennes, comme le climat et les règles de régulation du marché de l'énergie », a souligné le consortium à nos confrères de Techworld. Et de pousser alors pour « un code de conduite qui fournirait un échangeur entre tous les acteurs européens pour discuter et s'accorder sur des mesures pour améliorer la consommation d'énergie. » Virtualisation, déploiement de serveurs optimisés, usage de nouvelles sources d'alimentation comme la pile à combustible sont parmi les recommandations émises par le consortium. Fort de son ambitieux plan, le Green Grid vise à réduire de 10% la consommation d'énergie dans les centres de calculs d'ici à 2011 - l'équivalent d'une réduction de 10,7 milliards de kWh-, et de 6,5 millions de tonne de Co2, les émissions de gaz à effet de serre. (...)

(11/02/2008 15:44:40)

Encanto, le supercalculateur qui peut sauver le Nouveau-Mexique

Pour le gouverneur du Nouveau Mexique, Bill Richardson, le supercalculateur Encanto « n'est pas qu'un jouet high-tech pour l'élite scientifique. C'est un investissement sur le futur ». En effet, cette machine se classe directement en troisième position du Top 500 avec une vitesse de calcul de 172 teraflops/seconde, 38 To de mémoire interne et 172 To de capacité de stockage. Fabriqué par SGI et constitué de 3 584 processeurs Clovertown (quadri-coeurs) d'Intel, il a représenté un investissement de 11 M$ en matériel et de 3 M$ en points d'accès (stations de travail) pour l'Etat du Nouveau-Mexique. Et coûtera deux millions de plus par an en alimentation électrique. Pour rentrer dans ses fonds, le Nouveau-Mexique veut qu'Encanto paie ses propres dépenses en louant une partie de sa capacité de calcul à des tiers : laboratoire de recherche, université ou même entreprises privées. Il servira également en propre à l'Etat pour des calculs tels que l'approvisionnement en eaux, la simulation de feux de forêt ou la planification du développement urbain. Enfin, selon Bill Richardson, à lui seul, il doit relancer l'économie high-tech de l'Etat. « Le Nouveau-Mexique veut sérieusement développer son économie high-tech, explique-t-il. A mesure que la nouvelle de notre supercalculateur se répandra, de plus en plus d'entreprises et d'institutions universitaires voudront travailler avec l'Etat. » Pour la plupart d'entre elles, il faudra attendre jusqu'en juin, le temps qu'Encanto soit pleinement opérationnel. D'ici là, l'université du Nouveau-Mexique, la New-Mexico Tech et l'université d'Etat pourront l'utiliser. (...)

(11/02/2008 13:47:02)

Vers une multiplication des licences Open Source côté matériel

Alors qu'il était réservé au monde professionnel (avec notamment les processeurs SPARC), le matériel en Open Source fait son apparition dans le domaine du grand public en 2008. Neuros Technology et son disque dur multimédia, Creative Labs et ses cartes son et plus récemment le MIT (Massachusetts Institute of Technology) s'y sont tous essayés. Et chacun avec une licence différente. Ainsi le MIT a utilisé sa licence maison, la X11. OpenCores, une association de développeurs matériels Open Source, préfère, de son côté, les licences GPL, LGPL ou BSD non modifiée. Quant à la FSF (Free Software Foundation), elle recommande sa GPL sans toutefois préciser quelle version - entre la 2.0 et la 3.0- adopter. Va-t-on assister à une multiplication des licences matérielles à l'image des licences Open Source pour le logiciel ? (...)

(08/02/2008 17:50:59)

IBM transforme Blue Gene en serveur d'applications web

Pour IBM, les clusters de serveurs lamba ne sont pas l'avenir du Web. Alors qu'elles sont couramment utilisées par la plupart des acteurs du Web, ces grappes ne sont pas la solution la plus viable. « Cette approche équivaut à construire une centrale électrique à partir d'une collection de générateurs portatifs », explique Jonathan Appavoo, Volkmar Ulhig et Amos Waterland, trois chercheurs d'IBM dans leur présentation du Projet Kitty Hawk. Ce projet porte sur la prochaine génération de plateforme capable d'héberger des applications Web de toute taille. Pour eux, cette plateforme a déjà une forme matérielle : le super-ordinateur Blue Gene/P. Les trois chercheurs travaillent sur les modifications logicielles nécessaires pour transformer ce Blue Gene en une machine extrêmement versatile capable de faire tourner des milliers d'instances virtuelles Linux pour chaque application Web. Cela ne fera pas pour autant disparaître les clusters du paysage. Ceux-ci seront simplement moins nombreux et composés de mainframes plutôt que des serveurs d'entrée de gamme, plus fiables et plus faciles à maintenir. Puisqu'un cluster de 1024 Blue Gene pourrait être conçu - et vendu ? - comme une seule machine, plutôt que prendre des semaines à assembler des serveurs d'horizon différents. Pour l'instant, le projet Kitty Hawk n'en est qu'au stade du prototype. Il fonctionne correctement avec des applications Web 2.0 basées sur LAMP (Linux, Apache, MySQL et PHP), et en séparant la partie base de données des applications proprement dite. Aucune prévision pour un passage commercial n'est avancée. (...)

(08/02/2008 17:02:01)

Microsoft attend 10 000 personnes à ses TechDays

Les TechDays organisés par Microsoft France à Paris de lundi à mercredi prochains s'annoncent encore plus imposants que ceux de 2007. Avec plus de 15 000 inscrits ce vendredi, les organisateurs attendent plus de 10 000 visiteurs uniques sur les trois jours, en se référant au succès de l'an dernier. Marc Jalabert, responsable de la division Plateforme et Ecosystème de Microsoft France, cite ainsi les statistiques de la première édition : « 8 000 visiteurs uniques pour 13 000 inscrits ». Le nombre de sessions passe à près de 300, dont près de la moitié seront animées par des experts travaillant pour des laboratoires ou des partenaires de Microsoft. Cette deuxième édition de l'événement, qui fait jeu égal avec les conférences européennes - payantes et en anglais - reste gratuite pour les visiteurs. Selon Marc Jalabert, le financement vient pour la moitié environ des partenaires, dont le nombre a été augmenté. Il y en a une centaine cette année, à tel point que l'événement tient désormais salon sur deux étages du Palais des congrès de la Porte Maillot. Parmi les partenaires, on note la présence de « coopétiteurs » comme Sun, IBM ou EMC, et dans l'Open Source celle de Talend, récemment admis dans le laboratoire Open Source de Microsoft, mais pas celle de JBoss, pourtant lié à Microsoft par un accord spécifique - dont on voit décidément mal la concrétisation sur le terrain. Fait étonnant pour un événement parisien, d'autant que toutes les sessions seront disponibles en vidéo, « 35 à 40% des inscrits viennent de province », précise Marc Jalabert. Toutefois, même si la tournée en province des DevDays n'existe plus, Marc Jalabert promet qu'il y aura « des sessions TechNet et MSDN avec des partenaires dans cinq ou six grandes villes ». (...)

(08/02/2008 15:22:54)

Les processeurs Cell passent à 45 nanomètres

Le processeur Cell d'IBM dédié au calcul haute performance et équipant - principalement - la console PlayStation 3 de Sony va bénéficier d'une gravure plus fine. Il passera de 65 nanomètres à 45 nanomètres, avec l'alliage « high k gate » comme isolant. En pratique, cela ne change pas les capacités techniques de la puce. Cela réduit juste de 34 % sa consommation électrique. Et donc sa capacité à chauffer. Ce qui permettra au principal acheteur de Cell, Sony, de réduire la ventilation de sa PS3 et ainsi ses coûts de fabrication. En revanche, pour les serveurs lame dotés du processeur, le changement de gravure ne devrait pas apporter de grands bouleversements. (...)

(08/02/2008 14:47:55)

Infineon rouge carmin, Altis dans l'expectative

1er trimestre 2008 (clôture à fin décembre) Chiffre d'affaires : 1,603 Md€ (-25%) Pertes nettes : 396 M€ (contre un résultat net de 120 M€) Hors Qimonda Chiffre d'affaires : 1,09 Md€ (+13,8%) EBIT (Earnings before interest and taxes, alias résultat d'exploitation) : 65 M€ (contre une perte d'exploitation de 9 M€) La participation à hauteur de 77,5% au capital de Qimonda, sa filiale spécialisée dans la production de mémoire, a fait profondément plonger Infineon dans le rouge sur son premier trimestre fiscal. Infineon -ex Siemens Semiconductor- a d'ailleurs choisi de clairement dissocier les résultats de Qimonda dans la présentation de ses résultats. Ce qui revient à s'amputer sur le papier de 32% du chiffre d'affaires du groupe, mais aussi de 433 M€ de pertes d'exploitation. Sur un an, Qimonda s'est effondré tant au niveau du CA (-56%) que de la rentabilité. Il y a un an, cette activité générait une marge de 225 M€. Sur l'exercice 2007 (clos à fin septembre), Qimonda, qui compte 13 500 salariés, a atteint un CA de 3,6 Md€. L'avenir déjà sombre d'Altis, co-entreprise détenue avec IBM, risque de pâtir encore de la décrépitude d'Infineon. Fin août dernier, on apprenait qu'un opaque consortium russe s'était porté acquéreur de cette unité de production. De source syndicale, l'accord comportait un engagement de charge de production sur deux ans. La situation fragilisée d'Infineon aurait contribué au gel du processus de rachat. Elle peut soit laisser craindre l'impossibilité de tenir l'engagement de deux ans de production, soit laisser espérer la reprise d'une plus grosse partie d'un Infineon moribond. (...)

(07/02/2008 12:46:20)

Les boites noires de Sun font une sortie officielle

Annoncé officiellement en mai dernier, le projet BlackBox de Sun est enfin au stade de la commercialisation. Rebaptisé Modular Datacenter S20 et repeint en blanc, ce conteneur servant de salle de serveurs est désormais commercialisé à partir de 589 000 $. A ce prix, il s'agit juste du conteneur modifié pour héberger des serveurs et des baies de stockage, le système de refroidissement et de contrôle d'humidité de l'air interne, et les racks de rangement vide. Il faudra ensuite y ajouter le prix des serveurs et des baies de stockage. Au total, le MD S20 peut contenir jusqu'à 18 teraflops en puissance de calcul, ou jusqu'à 3 peta-octets en espace de stockage. Installé dans un conteneur de bateau classique, le MD S20 peut s'installer à l'extérieur comme à l'intérieur et supporte des températures allant de - 20 à + 54 degrés. Pour les clients français, ces salles de serveurs modulaires sont fabriquées à la demande dans les usines américaines de Sun. Il faudra alors ajouter le coût du transport par bateau ou par avion. (...)

< Les 10 documents précédentsLes 10 documents suivants >