Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1481 à 1490.

< Les 10 documents précédentsLes 10 documents suivants >


(24/02/2009 18:22:56)

Linux Ubuntu s'interface avec le cloud d'Amazon

En octobre prochain, lorsque "Karmic Koala" se transformera en distribution Linux Ubuntu 9.10 opérationnelle, la poésie perdra ce que les entreprises gagneront en temps à interfacer leur système d'information aux API de l'offre EC2, la plateforme de cloud computing d'Amazon. Mark Shuttleworth, patron de Canonical, la société commerciale liée à la communauté Ubuntu, a indiqué que la version serveur d'Ubuntu intègrera les AMI (Amazon Machine Image). Il a aussi précisé que cette version allait supporter la batterie d'outils d'administration baptisée Eucalyptus* développés par des chercheurs à l'Université de Californie à Santa Barbara. De plus amples détails techniques seront communiqués lors du prochain Ubuntu Developer Summit qui se teindra à Barcelone les 25-29 mai prochains. *est-il nécessaire de préciser que le koala se nourrit exclusivement des feuilles bleutées de cet arbre... (...)

(24/02/2009 18:18:17)

VMworld Europe 2009 : le cloud passera par la virtualisation

Le contraire eut été étonnant : pour VMware, le cloud doit s'appuyer sur la virtualisation. Paul Maritz, président et CEO de l'éditeur depuis juillet dernier, a présenté la stratégie globale de l'entreprise en la matière à l'ouverture du VMworld Europe 2009 qui se tient à Cannes jusqu'au 26 février. Pour les détails techniques, il faudra néanmoins attendre quelques heures et les présentations de la deuxième journée. Pour commencer, VMware propose de s'appuyer sur la virtualisation complète du datacenter annoncée à l'occasion de VMworld à Las Vegas cet été avec VDC-OS (Virtual data center operating system), sur les extensions de celui-ci et sa couche d'administration ainsi que sur la virtualisation du poste de travail présentée fin 2008. Pour Paul Maritz, l'objectif est de permettre aux entreprises de disposer de leur infrastructure comme d'un service ('IT as a service' par analogie avec 'Software as a service'). « J'ai expliqué à des ingénieurs de plus de 45 ans que nous voulions bâtir un mainframe logiciel, s'est amusé le CEO lors de son introduction. Et des larmes ont coulé au coin de leurs yeux. Ils étaient d'accord sur le fait que toutes ces histoires d'informatique distribuée n'étaient qu'une sorte de maladie juvénile... » Aucune frontière entre l'infrastructure interne et le cloud Pour entrer dans l'ère du cloud, les nouveaux outils que VMware proposera autour de ces environnements seront sous une ombrelle appelée vSphere où les rejoindront également les produits de virtualisation existants. Difficile de s'y retrouver sans connaître toutes les implications techniques de l'annonce, mais la promesse de VMware est alléchante. Paul Maritz évoque ainsi une couche basse qui devrait s'occuper de l'allocation de ressources pour l'ensemble du cloud. Un rêve qu'ont effleuré en leur temps les adeptes du grid computing... Mais c'était avant l'explosion de la virtualisation. Une entreprise devrait donc pouvoir définir un cloud privé qui ferait fi de la frontière entre sa propre infrastructure et celle empruntée à un cloud externe. La réservation de ressources en serveurs, stockage ou réseau serait la plus simple du monde. Les applications existantes devraient tourner en toute transparence sur des infrastructures étendues, qu'elles se situent à l'intérieur ou à l'extérieur de l'entreprise. La virtualisation étant utilisée pour isoler et protéger l'application et son environnement. Aucun portage d'application Non seulement les applications n'auront pas à être portées, réécrites, comme pour la plupart des offres cloud existantes, mais elles seront suivies à la trace. « Nous voulons un modèle d'administration qui permette de définir des niveaux de service (SLA service level agreement) précis pour les applications existantes aussi bien que pour les nouvelles. Or, l'environnement de virtualisation fournit des informations détaillées sur leur comportement. » Paul Maritz : « Il faut prendre Microsoft au sérieux » [[page]] L'éditeur proposera aussi une API pour son vCloud, annoncé l'été dernier, afin de faciliter l'intégration de clouds internes et externes aux entreprises. Et pour VMware, les concepts de clouds étendus ne se répandront que si les acteurs du marché travaillent à la standardisation de ce genre d'API. Aussi travaille-t-il déjà sur OVF (Open virtualization format) avec d'autres éditeurs d'une part, et sur l'administration avec le DMTF (Distributed management task force). Enfin, VMware et Intel ont profité de la matinée pour proposer une intégration plus étroite entre la Client virtualization platform du premier et la virtualisation vPro au niveau du processeur du deuxième. Un rapprochement qui permettra entre autres des mises à jour de sécurité du poste client alors même que celui-ci est éteint, ou la vérification de l'identité d'une machine virtuelle cliente. Pas d'inquiétude par rapport à l'accord entre Microsoft et Citrix Quant à l'annonce conjointe faite hier par Microsoft et Citrix, Paul Maritz l'a balayée d'un revers de la main. « Ca ne change rien. Microsoft est très concentré sur hyper-V et ils veulent simplement rester polis avec tout le monde. Cela ne me trompe pas un seul instant. » Mais qu'on ne s'y méprenne pas. L'ancien de Microsoft ne sous-estime en rien son ancienne entreprise. « J'ai une longue expérience de Microsoft. Vu de l'intérieur comme de l'extérieur. Et je les prends très au sérieux. Ils ont les ressources qu'il faut et ils peuvent travailler sur la virtualisation aussi longtemps qu'ils en ont envie ! Quand on est en concurrence avec Microsoft, il faut être très clair sur sa stratégie. Et c'est ce que nous faisons. Nous avons un objectif très clair. » (...)

(24/02/2009 16:28:25)

Red Hat embrasse toutes les facettes de la virtualisation

Red Hat confirme et détaille les grands traits de sa stratégie de virtualisation. A compter de la prochaine version de RHEL (Red Hat Linux Enterprise), la 5.4, l'hyperviseur KVM (Kernel-based virtual machine) remplacera Xen, l'actuel hyperviseur implanté par Red Hat au dessus de RHEL. L'éditeur champion du code source libre proposera aussi son hyperviseur indépendamment de RHEL. Il prévoit également de livrer deux outils d'administration pour les environnements virtualisés, un pour les serveurs, l'autre pour les postes clients. Pour Red Hat, c'est le meilleur moment. Celui des promesses. L'éditeur s'est engagé à les tenir d'ici 3 à 18 mois (soit au plus tard août 2010). Souhaitons qu'il ait appris de ses expériences du passé. En novembre 2005, Red Hat avait promis l'implantation de l'hyperviseur Xen pour 2006. Elle n'a été disponible qu'en mars 2007, avec six mois de retard. Mais, en septembre dernier, Red Hat a acheté pour une centaine de millions de dollars l'éditeur israélien Qumranet qui avait, dans son escarcelle, d'intéressants outils pour l'administration de la virtualisation. De plus, la communauté Linux s'est attelée à la virtualisation et s'est focalisée sur l'intégration de KVM au noyau Linux. Résultat, KVM est partie prenante du noyau Linux depuis sa version 2.6.20. A la suite de Fedora 10, la version communautaire de la distribution Linux de Red Hat qui intègre KVM depuis fin novembre dernier, RHEL 5.4 sera livré avec KVM. D'ici à cet été, cette 5.4 succèdera à RHEL 5.3 annoncé fin janvier avec Xen comme hyperviseur. Red Hat s'engage à assurer le support des utilisateurs de Xen sur RHEL 5.x jusqu'en 2014. Une version autonome de l'hyperviseur KVM Red Hat prévoit aussi de proposer Red Hat Enterprise Virtualization (RHEV) Hypervisor, une version autonome de l'hyperviseur KVM. Face à la pléthore d'hyperviseurs déjà proposée, Red Hat met en avant les qualités techniques de son offre : d'un côté une empreinte mémoire de 64 Mo, de l'autre la possibilité d'allouer jusqu'à 16 coeurs et 96 Go à une machine virtuelle (VM). Cette brique de base posée, Red Hat livrera RHEV Manager for Servers. L'outil, présenté comme capable de gérer un nombre considérable de VM (plusieurs milliers) est décrit comme complet : gestion des migrations, y compris à chaud, administration des ressources en temps réel et gestion du cycle de vie. Pour les postes clients, RHEV Manager for Desktop reposera sur SolidICE et SPICE, deux technologies acquises avec Qumranet. SolidICE est une infrastructure de postes virtuels (VDI, Virtual desktop infrastructure). Quant au protocole SPICE, il permet d'optimiser les flux multimédias sur le réseau. (...)

(23/02/2009 17:39:58)

IBM dope ses serveurs aux Xeon 7400 et aux Opteron 8300

IBM intègre les processeurs Intel Xeon 7400 et AMD Opteron 8300 45 nm (Shanghai) dans ses serveurs System X. La disponibilité de ces puces pourrait aider IBM à inverser une mauvaise tendance : ses serveurs x64 perdent du terrain face à la concurrence depuis deux trimestres. A compter du début du mois de mars, les System X recevront donc les dernières versions des processeurs pour serveurs d'Intel et d'AMD. Cette disponibilité effective interviendra au moment attendu pour le lancement des processeurs Nehalem pour serveur d'Intel. A entendre le fondeur, cette nouvelle génération devrait chambouler le monde des serveurs. Intel compte sur elle pour distancer définitivement AMD. Elle est créditée d'une capacité de traitement deux fois plus importante que celle des Xeon actuels et d'une bande passante trois à quatre fois plus large grâce à un nouveau FSB (Front Side Bus), QuickPath. En attendant, IBM fait évoluer ses serveurs racks et ses serveurs lames. 96 coeurs en configuration complète Le x3950 M2 (format 4U) va recevoir le Xeon X7460 (hexacoeur à 2,66 GHz, 9 Mo de cache L2 et 16 Mo de L3). Ce serveur est équipé du jeu de composants (chipset) maison X4 qui permet de coupler quatre cartes-mères quadri processeurs. En configuration complète, le x3950 M2 peut donc héberger 96 coeurs. Son petit frère, le quadriprocesseur x3850 M2 (format 4U) va être, lui, mis à jour avec des Xeon E7420 (quadricoeur à 2,13 GHz, 6 Mo de cache L2 et 8 Mo L3). Quant au quadriprocesseur x3755, modèle d'entrée de gamme, il recevra des Opteron Shanghai 83xx à 2,4 et à 2,7 GHz. Parmi ses serveurs lames (BladeCenter), IBM ne fait évoluer que ceux animés par des processeurs AMD. Il a retenu les Shanghai Opteron de dernière génération HE. Cadencés en 2,2 GHz ou en 2,3 GHz, ils viennent s'enficher dans les lames biprocesseurs LS22 et dans les quadriprocesseurs LS42. IBM profite de ces mises à jour de processeurs sur ses serveurs lames pour proposer des barrettes mémoires DDR2 8 Go. Cette densité permet de doubler la capacité mémoire des BladeCenter. (...)

(23/02/2009 15:01:21)

SAP reprend les outils de plateforme en ligne de Coghead

SAP vient d'acquérir les droits de propriété intellectuelle du Californien Coghead qui proposait jusqu'au 18 février une plateforme et des outils de développement pour bâtir et exploiter des applications de gestion en ligne. L'éditeur allemand figure déjà depuis deux ans, par le biais de SAP Venture, au capital de cette société créée en 2003. Il devrait utiliser cette infrastructure hébergée pour ses besoins internes dans un premier temps, selon l'un de ses porte-parole. Récemment, Coghead avait prévenu ses clients qu'il prévoyait d'arrêter son service en ligne pour des raisons économiques, mais sans mentionner, alors, l'accord signé avec SAP. Dans les prochaines semaines, ce dernier devrait en dire un peu plus sur la façon dont il compte exploiter la technologie acquise, mais il n'a pas, pour l'instant, l'intention de la vendre sous forme de service commercial. L'éditeur dit également travailler pour aider les clients de Coghead à effectuer une transition de leurs applications vers de nouveaux hébergeurs sans interruption de service. Un environnement pour élaborer des applications Web et les mettre à disposition en ligne La plateforme de Coghead s'adressait aux éditeurs indépendants, développeurs et départements informatiques auxquels il fournissait un environnement de conception graphique pour élaborer des applications Web et les mettre à disposition en ligne : environnement de développement « drag and drop » basé sur Flex, d'Adobe, fonctions de workflow pour modéliser des processus métiers, interface de programmation REST et outils 'Coglets' pour l'intégration avec d'autres applications Web. Enfin, l'éditeur Coghead s'est appuyé sur le cloud d'Amazon EC2 et les services qui lui sont associés, AWS (Amazon Web Services). C'est l'une des nombreuses plateformes en ligne qui se sont multipliées à côté des Salesforce.com, Google et Microsoft Azure, ou encore d'autres acteurs plus petits comme Caspio, Californien lui aussi. Plusieurs d'entre eux proposent maintenant aux utilisateurs de Coghead des offres intéressantes pour migrer vers leur infrastructure. Pour le PDG de RunMyProcess, le marché existe malgré la faillite de Coghead « Coghead était une des start-up emblématiques du marché du Saas/PaaS/Cloud », commente Mathieu Hug, PDG de Runmyprocess.com étonné par cette « surprenante nouvelle de la faillite » de cette société puis de son rachat par SAP. Editeur d'une solution de BPM en mode SaaS, Runmyprocess.com voyait Coghead se positionner comme un concurrent. Son rachat est-il un avertissement pour toutes les plateformes fournies comme un service et les entreprises qui les utilisent ? Mathieu Hug ne le pense pas. « D'une part, le marché existe, nous le sentons émerger nettement depuis trois à quatre mois, mais lancer un business 'as a service' est un travail de longue haleine et la crise actuelle n'aide pas, analyse le dirigeant. D'autre part, le rachat par SAP prouve la valeur de ce type d'offre, même si SAP était déjà partie prenante de Coghead par le biais de SAP Venture. (...) Cela prouve aussi que le SaaS, les PaaS ou le cloud sont sans équivoque la prochaine étape majeure de l'évolution de l'informatique. » Pour Michael Coté, analyste pour le cabinet Redmonk, la technologie de Coghead semble bien convenir à SAP si l'on en juge par la popularité qu'elle a acquise au sein de la communauté de développeurs de l'éditeur allemand. (...)

(23/02/2009 14:59:36)

Microsoft adopte l'administration de Citrix pour sa virtualisation

La meilleure défense, c'est l'attaque. Ainsi, Microsoft a-t-il fort judicieusement choisi la date d'aujourd'hui, 23 février, avec son compère Citrix, pour annoncer une nouvelle étape de leur partenariat. Et ainsi occuper le terrain alors que commence, le 24 février, sur la Croisette à Cannes, VMworld Europe 2009, grand messe de la virtualisation made in VMware sur le Vieux Continent. Pauvre en outils d'administration pour son tout jeune Hyper-V, le géant de Redmond a décidé d'adopter ceux de son partenaire de 20 ans, Citrix. L'éditeur de XenServer annonce que ses offres d'administration, promises pour avril, seront aussi disponibles pour Hyper-V et System Center sous le nom Citrix Essentials. « Il faut pouvoir administrer à la fois les serveurs et les postes de travail, à la fois les machines virtuelles et les machines physiques, » a insisté David Greschler, directeur du marketing pour System Center au sein de la division Windows Enterprise Management Division de Microsoft. Jusqu'à 1000 machines virtuelles à partir d'une seule image maître Le partenariat inclut ainsi les quatre produits d'administration de Citrix. Advanced Storage Integration qui s'appuie sur la technologie Storagelink. Celle-ci détecte automatiquement l'ensemble des équipements de stockage connectés et les gère directement, y compris pour le déploiement de machines virtuelles converties de Hyper-V vers Xen Server, ou l'inverse. La fonction Dynamic Provisioning Services gère quant à elle un ensemble d'images maîtres qui peuvent être utilisées à la demande pour installer des machines virtuelles Hyper-V ou des serveurs physiques. Si l'on en croit les deux partenaires, il devrait être possible de générer un millier de machines virtuelles à partir d'une seule image maître. Hypervisor Interoperability assure l'administration de machines virtuelles dans des environnements qui mixent Hyper-V et XenServer. « Cela assurera une très grande agilité entre les machines virtuelles 'jumelles' Xen Server et Hyper-V, insiste Simon Crosby, directeur technique (CTO) pour la division virtualisation at administration de Citrix. Un simple redémarrage suffira pour rendre les deux environnements compatibles.» Enfin, Automated Lab Management est un environnement de développement, de test et de déploiement d'applications qui automatise la gestion du cycle de vie de la machine virtuelle, y compris lorsqu'elle doit migrer entre différentes plateformes systèmes. Pour Microsoft, les utilisateurs abandonneront un VMware, jugé trop propriétaire... [[page]] Quant à leur concurrent majeur, VMware, les deux partenaires ont affiché la même certitude. Pour eux, « le numéro un de la virtualisation reste propriétaire et manque de partenaires. Et comme les clients vont désormais avoir le choix d'aller vers des solutions ouvertes, ils vont y aller. » On notera l'habituelle confusion entre logiciel libre et logiciel gratuit qu'induit immanquablement le vocable anglo-saxon 'free'... Hyper-V a beau être gratuit, il n'en reste pas moins la propriété de Microsoft. Il est vrai cependant que VMware et sa maison mère EMC, ne pourront pas demeurer éternellement passifs face à l'arrivée de Microsoft sur ce marché. Avec un hyperviseur gratuit (Xen Server deviendra gratuit lui aussi en avril). Et désormais plus simple à administrer. David Greschler prévient : « Le temps de la V1 des hyperviseurs est révolu. Désormais, ils sont gratuits. Et la valeur n'est plus dans l'hyperviseur, mais dans tout ce que l'on va bâtir autour. » L'édition Platinum de Citrix Essentials, sans la fonction destinée aux développeurs Automated Lab Management, coutera environ 1 500 dollars par serveur physique. Avec cette fonction, il reviendra à 3 000 dollars par machine. (...)

(20/02/2009 16:59:04)

Unisys préfère le Xeon à l'Itanium

Alors que le lancement de Tukwila, le prochain processeur Itanium, est encore reporté de six mois, Unisys se montre très circonspect sur l'avenir de ce processeur. Du moins dans son catalogue... Unisys explique son scepticisme par le rapport prix/performance qu'il obtient avec son serveur haut de gamme ES7000 Model 7600R (Express5800/A1160 chez NEC). Annoncé en novembre dernier, ce serveur est animé par 16 processeurs Xeon 7400. Ces Xeon 7400 64 bit sont soit quadri, soit hexacoeurs (six coeurs) et ont fait merveille au test TPC-H. La configuration soumise par Unisys a atteint 80 172,7 transactions par heure, avec un prix de 18,95 dollars par unité de mesure (QphH@10000GB). Unisys compare ces performances avec celle d'un HP Integrity Superdome, animé par des Itanium. Cette machine atteint 63 650 transactions par heure pour un prix de revient de 38,54 dollars par QphH@10000GB. On comprend qu'Unisys profite de cet écart de coût significatif pour souligner les brillantes perspectives de ses super serveurs à base de Xeon et pour s'interroger sur l'intérêt de continuer dans la voie de l'Itanium. (...)

(19/02/2009 17:12:11)

VirtualBox, hyperviseur pour poste client de Sun, en version 2.1.4

Sun livre la version 2.1.4 de sa VirtualBox, son logiciel de virtualisation Open Source pour postes de travail x86. Cet hyperviseur de type 2 s'installe au dessus de Windows, de Linux, de MacOS et d'OpenSolaris. Il supporte des machines virtuelles sous Windows (de 2000 à Vista), Linux, Solaris, OpenBSD et MacOS. VirtualBox, dans le giron de Sun depuis le rachat de l'Allemand Innotek en février 2008, est sortie en version 2.0 en septembre 2008. En décembre dernier, la 2.1 marquait des progrès dans le support des extensions dédiées à la virtualisation d'AMD (AMD-V) et Intel (VT-x) et intègrait les spécificités des processeurs Nehalem (Core i7). Cette version 2.1.4 corrige des bugs, voit ses performances dopées, s'améliore au niveau des interfaces réseau et s'insère mieux dans les environnements VMware. (...)

(19/02/2009 15:05:07)

Selon Intel, d'ici à 2012, un serveur sur quatre sera installé dans un méga-datacenter

Intel affirme que, d'ici à 2012, entre 20% et 25% des serveurs se trouveront dans des "méga-datacenters". Aujourd'hui, toujours selon Intel, ce type de sites ne représente que 10% du marché. Pour Intel, ces méga-datacenters sont ceux de grands acteurs comme Google, Amazon, Microsoft, les opérateurs telcos/Internet et les fournisseurs de services web 2.0 comme SalesForce. Sous l'effet de la crise, tous devraient connaître une forte augmentation de demandes d'externalisation ou de sous-traitance de la part d'entreprises en quête d'optimisation des coûts. Ces prédictions d'Intel préparent le terrain pour l'annonce imminente de ses premiers processeurs Nehalem pour serveur. Fondés sur la même architecture que le Core i7, ils constituent une rupture technologique qu'il convient de justifier en ces temps de vaches maigres. Capacité de traitement unique comme pour un processeur multicoeur Aujourd'hui, les datacenters qui déploient des environnements virtualisés - premier pas vers une architecture en cloud - optent le plus souvent pour des serveurs rack biprocesseurs milieu de gamme plutôt que pour des machines dernier cri. Les prix de ces bipro bénéficient d'une forte concurrence entre les constructeurs. Dans l'espoir de relancer le marché, Intel fait reposer sa stratégie "cloud computing" sur ses Nehalem. Le fondeur promet des plateformes optimisées pour s'insérer dans des datacenters où les serveurs seraient conçus pour être gérés en "pool", vus comme une capacité de traitement unique comme l'est un processeur multicoeur aujourd'hui. Il fait miroiter un ensemble de serveurs capable de réallouer dynamiquement leurs ressources pour optimiser la répartition de la charge de traitement. Willowbrook, carte-mère moins gourmande et prête pour la virtualisation Intel a aussi levé le voile sur "Willowbrook", une carte-mère conçue par ses soins qui ramène de 110-115 watts la consommation en veille d'un serveur Nehalem à moins de 85 watts. Promise pour la fin mars, elle sera dotée de fonctions dédiées à la virtualisation, tout particulièrement pour les entrées-sorties. Intel met en avant Virtual Machine Device Queues (VMDq), qui décharge l'hyperviseur dans ce domaine et souligne le rôle que pourrait jouer le bus PCI Express (PCIe) dans la virtualisation des périphériques d'entrées-sorties. Dans un datacenter, dont la taille serait telle que les coûts de personnel s'effaceraient devant l'ampleur de ceux des équipements, Intel estime que 75% des coûts de fonctionnement proviennent du coût de l'infrastructure (pour 50%) et de la consommation électrique (pour 25%). Pour un tel site dont les ressources serveur sont uniformisées autour de processeurs Nehalem, Intel identifie plusieurs sources d'économie au niveau des infrastructures. 57% proviennent d'une optimisation du code, autrement dit, d'une gestion fine des ressources en fonction de la charge, 23% sont dégagées par une amélioration de la consommation, 17% de serveurs aux cartes-mères optimisées et 3% de la conception du datacenter. (...)

(18/02/2009 18:14:55)

Signe des temps, IBM préfère Voltaire à Cisco pour les commutateurs Infiniband

IBM a demandé à la société Voltaire de concevoir un commutateur InfiniBand quad-rate (QDR) qui atteint donc un débit de 40 Gbit/s, pour ses serveurs lames BladeCenter. Le produit est attendu pour l'été. Il se chuchote que ce commutateur Infiniband 40 Gbit/s pourrait être commercialisé seulement 20% plus cher qu'un modèle 20 Gbit/s (DDR - Double-data rate). Autrement dit, avec un rapport prix/performance très avantageux par rapport à des technologies comme le 10 Gigabit Ethernet ou le Fibre Channel 4 Gbit. Le choix de Voltaire par IBM est lourd de sens. Big Blue a préféré retenir ce petit fournisseur (66,6 M$ de CA en 2008, +16%), né sur le marché de niche des supercalculateurs. Celui-ci sera sans doute plus prompt à répondre à ses requêtes qu'un grand fournisseur comme Cisco dont IBM commence à déréférencer certains produits Fibre Channel et Infiniband. HP, Sun, Rackable Systems et Silicon Graphics sont aussi clients de Voltaire. 50% des coûts d'un datacenter proviennent du réseau Ce dernier, comme d'autres sociétés telles que Xsigo ou BNT (Blade Network Technologies) ou même Brocade ou QLogic pourraient profiter des déplacements de frontières auquel on assiste dans les datacenters. Plusieurs facteurs viennent, simultanément, chambouler l'équilibre des forces entre fournisseurs de serveurs, d'équipements réseau et de stockage. Tout d'abord, les architectures propriétaires des serveurs lames poussent à l'intégration de composants d'interface réseau et stockage qui, par définition, ne peuvent plus être standardisés. HP, IBM et dans une moindre mesure, Dell redécouvrent les avantages financiers qu'il y a à retenir les clients dans des architectures fermées. Ils en profitent par ailleurs pour prendre leur distance avec Cisco et tenter de reprendre ce qu'ils lui avaient confié. L'enjeu est de taille puisque la part des réseaux dans le coût d'un datacenter est passée de 25%, il y a trois ans à 50% aujourd'hui. Cette montée en puissance s'accompagne d'une tendance à l'uniformisation autour du protocole IP, tant pour les réseaux que pour le stockage. Ensuite, la virtualisation, dont l'onde de choc s'étend sur toute l'infrastructure, entraîne une redistribution des cartes, de fond en comble. Tous les projets de virtualisation de serveurs se heurtent au problème de la très forte sollicitation qu'ils engendrent sur les entrées/sorties. Diviser par deux, voire trois, le nombre de serveurs revient à menacer de saturation les entrées/sorties de ceux qui restent. En dissociant le matériel du logiciel, la virtualisation fait aussi disparaître les "boîtes noires" qui verrouillent les architectures réseau. Dans ce contexte, on comprend pourquoi IBM choisi un fournisseur comme Voltaire qui dépend totalement de lui pour vendre sa technologie. On comprend aussi pourquoi Cisco travaille étroitement avec VMware pour développer des logiciels de commutation virtuelle et se prépare à proposer ses propres serveurs. On attend l'annonce du premier système, le Nexus 1000V à VMworld Europe la semaine prochaine. (...)

< Les 10 documents précédentsLes 10 documents suivants >