Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1031 à 1040.

< Les 10 documents précédentsLes 10 documents suivants >


(15/06/2010 15:12:39)

SM1000 : Un serveur animé par 512 puces Atom

Le Californien SeaMicro a annoncé qu'il avait développé un serveur composé de 512 processeurs Intel Atom de faible puissance montés sur de petites cartes mères, le SM 1000. Le choix des puces Atom, que l'on trouve le plus souvent intégrées aux netbooks bon marché, Andrew Feldman, PDG de SeaMicro et personnage controversé dans la Silicon Valley, l'explique en disant qu'elles peuvent être plus efficaces sur le plan énergétique que des processeurs x86 traditionnels. En particulier pour le Cloud et certains types d'opérations dédiées à Internet où les charges de travail ont tendance à être plus petites en taille, mais plus grosses en volume. « Les serveurs actuels sont moins efficaces pour les petites charges de travail, » explique Andrew Feldman. « Les puces haute performance pour serveurs, comme l'Intel Xeon d'Intel et l'AMD Opteron sont mieux adaptées aux charges de travail nécessaires pour faire tourner les applications de type bases de données dans les entreprises traditionnelles », explique-t-il.

Des solutions alternatives

Ancien directeur marketing, Andrew Feldman oublie volontiers que certains serveurs en rack ou sur lames sont animés par des puces x86 double coeurs traditionnels ou basse consommation et offrent un très bon rapport encombrement/performance. Pour lui, les processeurs Atom, mis en série, fournissent de meilleures performances par watt dans un environnement Cloud. « La puce Atom s'avère bien adaptée pour la gestion des applications ordinaires, moins pour les opérations de calcul très difficiles. Et l'Internet est un secteur où il y a essentiellement des tâches ordinaires », a-t-il déclaré. Des benchmarks permettront de valider - ou non - ces propos quand ils seront publiés.

D'autres vendeurs se sont également tournés vers des solutions alternatives, mettant en oeuvre des serveurs avec des puces basse consommation. Ainsi, Dell a construit, pour certains de ses clients passés au Cloud, des serveurs reposant sur des processeur Nano fournis par Via Technology, et un groupe de recherche de Microsoft a également dévoilé l'année dernière des serveurs expérimentaux à base de puces Atom.

Illustration : Le SM1000 de SeaMicro, à partir de 140 000 $ (crédit photo : DR)
[[page]]

Pour économiser l'espace et réduire la consommation d'énergie, SeaMicro a réalisé son serveur SM1000 avec le moins de composants possible. Celui-ci est donc constitué de 512 cartes mères miniatures intégrant chacune un processeur Atom Z530 cadencé à 1,6 GHz, et reliées entre elles par un connecteur permettant un débit théorique de 1,28 térabits par seconde. En général, les cartes mères pour serveur comprennent des composants pour effectuer des tâches liées au stockage et à l'échange réseau, mais SeaMicro dit avoir virtualisé les entrées/sorties avec un contrôleur ASIC (Application-Specific Integrated Circuit) émulant le hardware, ce qui permettrait de se passer « de 90%» des composants d'une carte mère traditionnelle.

Une carte mère de la taille d'une carte de crédit

« Cette technologie nous permet de limiter la carte mère à la taille d'une carte de crédit », a expliqué le PDG de SeaMicro. Sur la carte mère, « seules demeurent les éléments principaux que sont la DRAM, le contrôleur et le CPU Atom », a-t-il précisé. « Le serveur se compose de 10 racks empilés en hauteur pour occuper 17,5 pouces - 45 cm - soit un quart de l'espace qu'occuperait un serveur traditionnel, mais aussi un quart de la puissance, pour une charge de travail équivalente », a indiqué Andrew Feldman. Cependant pour améliorer les performances, « les puces Atom pourraient être remplacées par d'autres processeurs x86 ou des composants reposant sur une architecture ARM ».

Livraison annoncée vers le 30 juillet

« Le SM1000 a un design unique qui pourrait amener d'autres vendeurs à repenser la façon dont ils construisent les serveurs », a déclaré Cal Braunstein, PDG du cabinet Robert Frances qui réalise des études de marché. « Ces serveurs ont été conçus pour un usage particulier. Avec cette architecture, ils peuvent utiliser des puces Atom et répartir la charge de travail entre un grand nombre de processeurs travaillant simultanément. Ce type de machine est adapté à certaines tâches Internet », ajoute encore Cal Braunstein. De plus, les datacenters se trouvent confrontés à des contraintes énergétiques. « Des serveurs comme le SM1000 peuvent aider à résoudre ce problème tout en réduisant la facture d'électricité. »

Bien évidemment, SeaMicro a fait savoir que certains clients utilisaient déjà sa machine, mais n'a pas souhaité les nommer. Officiellement, le serveur SM1000 de SeaMicro devrait être livré aux Etats-Unis vers le 30  juillet, pour un prix démarrant à 140 000 dollars US.

(...)

(14/06/2010 12:48:46)

VMware, après Novell des accords avec Red Hat et Ubuntu ?

Début juin, VMware a annoncé un accord avec Novell portant sur la distribution et le support de Suse Linux Enterprise Server et l'adoption de cette distribution pour ses appliances. Et les utilisateurs qui souhaitent déployer VMware vSphere avec Suse Linux pourront installer gratuitement le système d'exploitation et bénéficier des mises à jour. L'abonnement au support technique restera toutefois une option payante proposée par VMware et ses partenaires.  «Les clients de VMware pourront obtenir les mises à jour ou des correctifs non seulement pour vSphere, mais aussi pour Suse Linux Enterprise Server », a ainsi déclaré Bogomil Balkansky, vice-président du marketing produit chez  VMware. Les utilisateurs pourront bénéficier d'une «offre homogène avec un guichet unique pour le support » à partir d'un seul vendeur, ajoute-t-il.


De plus, la filiale d'EMC normalise avec Suse Linux sa plate-forme appliances, une machine virtuelle pré-configurée qui embarque un OS et une application dans un bloc autonome (voir illustration principale). VMware propose par exemple un Appliance avec vCenter AppSpeed, un outil dédié à la gestion de la performance des 
applications virtualisées distribuées. Cet accord entre VMware et Novell réduit la complexité pour les clients et augmente le bénéfice des offres, a déclaré Joe Wagner, vice-président de Novell. "Nous sommes ravis que VMware valide notre stratégie d'être le système d'exploitation le plus souple pour les serveurs, les machines virtuelles et les infrastructures cloud », précise encore Joe Wagner.

Crédit photo VMware

[[page]]

Cet accord est une décision logique, a souligné l'analyste Drue Reeves, du Burton Group. «Je ne dirais pas que c'est fracassant [mais] cela a du sens, spécifiquement du point de vue de Novell dont beaucoup de clients ont migré de mainframes et de plates-formes milieu de gamme », vers Linux, ajoute Drue Reeves. « Ils peuvent opter pour une plate-forme Linux virtualisée. » 
Cependant, les deux éditeurs doivent bien s'assurer de ne pas perturber des partenaires comme IBM, qui vend des mainframes et des systèmes Unix, et des fournisseurs rivaux comme Red Hat et Canonical, qui sont également en affaires avec VMware, poursuit l'analyste. 

L'accord avec Novell n'est cependant pas exclusif, précise Bogomil 
Balkansky de VMware. Bien qu'il n'y ait encore aucun plan de décidé pour des accords similaires avec d'autres vendeurs, d'autres arrangements ne sont absolument pas exclus, ajoute-t-il. VMware continuera de supporter ses clients qui utilisent ses technologies de virtualisation avec d'autres plates-formes Linux, comme comme Red Hat ou Canonical Ubuntu. Drue Reeves s'attend lui aussi à ce que VMware forge des accords similaires avec Red Hat et Ubuntu.

(...)

(14/06/2010 11:21:27)

Interview : Yves de Talhouët, PDG d'HP France

Nous sommes pratiquement à la fin du premier semestre 2010, pouvez-vous nous dresser un bilan d'étape pour HP ?

Les résultats mondiaux pour le deuxième trimestre de l'exercice fiscal montrent un chiffre d'affaires de près de 32 milliards de dollars, en croissance de 13%. On remarque notamment une très bonne performance des serveurs, qui a cru de 30%, ce qui nous place en tête des vendeurs mondiaux de serveurs toutes technologies confondues. Le deuxième trimestre est dans la continuité du premier avec une croissance à deux chiffres. Cela contraste avec les résultats de l'année dernière, mais il y a eu un rebond des achats aussi bien sur le marché des particuliers, que des professionnels. En 2009, les gens ont eu très peurs et réduit leur dépense. A la fin 2009, les investissements sont revenus et ont continué au début de l'année 2010. La France est en ligne avec les résultats mondiaux. Depuis deux trimestres, la croissance a été forte sur l'ensemble des marchés résidentiels et professionnels.

Sur la partie entreprise, quel est le moteur de la croissance, les produits ou les services ?


Clairement, les équipements ont dynamisé la croissance. Pour les services, la croissance des revenus est restée stable, mais c'est normal, les contrats d'externalisation ou de maintenance s'inscrivent dans la durée.

Plusieurs analystes vous positionnent numéro un dans le domaine des serveurs au niveau mondial, est-ce pareil en France et comment expliquez-vous ces résultats ?


En France, la position est la même, les analystes nous créditent de 34 % de part de marché, avec une forte avance sur notre concurrent le plus proche. Sur les explications, on constate la montée en puissance du monde ouvert, les plateformes avec des OS ouverts, non propriétaires d'une seule marque. On remarque également l'intérêt de plus en plus important pour les infrastructures convergentes, c'est-à-dire qu'une même boîte (NDLR : Blade Matrix) comprend du CPU, du stockage, du routage. Et nous sommes les seuls à le proposer de bout en bout.

Pour la suite de l'interview, rendez-vous dans notre rubrique Entretien.

(...)

(14/06/2010 09:13:06)

Stockage, réseaux, serveurs... Dell renforce ses gammes

Pour améliorer son offre entreprise, Dell étoffe justement sa gamme de stockage issue du rachat d'EqualLogic, annonce la version 5 du firmware de ces produits, dévoile des serveurs lame et rack 2U bi sockets et ajoute des switch Juniper rebadgés à son catalogue.  Une montée en puissance progressive pour accompagner la transformation des datacenters vers le cloud.

Déjà associé à plusieurs équipementiers comme Brocade ou Blade Technologie, Dell qui a annoncé un partenariat avec Juniper en octobre dernier, a dévoilé cette semaine ses premiers produits basés sur JunOS, à savoir les core switch PowerConnect J-EX8208 et J-EX8216, un commutateur empilable, le J-EX4200, et l'appliance d'administration PowerConnect J-SRX100. Ces produits Juniper rebadgés Dell sont attendus en juillet prochain à des prix non communiqués. L'intégration de ces produits permet à Dell de proposer un choix plus large à ses clients. La société a également étoffé sa gamme issue de son partenariat avec l'équipementier de San Jose, avec l'annonce de son premier commutateur de coeur de réseau Brocade, le B-RX16 (38 500 $), et du PowerConnect 8024 (15 000 $), le premier switch 10 Gigabit Ethernet au catalogue de la compagnie texane. Deux cartes Fibre Channel 8 Gigabit, les Brocade 815 et 825 complètent le tableau. 

Dans le même temps, Dell a présenté ses baies de stockages hybrides et un nouveau firmware pour sa gamme NAS iSCSI EqualLogic. « Disponible gratuitement pour tous les clients qui bénéficie d'un contrat de support, le firmware 5.0 peut être intégré sans interruption de service »  précise Pierre Fournial, responsable de l'activité stockage chez Dell. Il suffit de procéder un contrôleur après l'autre. Cette version 5 apporte, par exemple, l'équilibrage de charge automatique entre les SSD et les disques durs rotatifs. La baie SAN hybride PS6000XVS, justement dévoilée, tire partie de cette fonctionnalité et permet aux entreprises de répartir « intelligemment » les données entre SSD et disques durs. La baie analyse en fait les données les plus souvent demandées pour les placer sur le support le plus rapide. En utilisant un algorithme très fin, le firmware peut changer les données plus fréquemment que la plupart des d'autres systèmes de gestion des ressources de stockage, nous explique Pierre Fournial. 

Illustration : baie de stockage SAN PS6000XVS, crédit Dell

[[page]]

Dell proposait déjà des baies équipées de SSD, mais la série PS6000XVS permet de combiner les deux technologies (disques rotatifs à 15 000 t/m et mémoire Flash) pour permettre aux entreprises d'introduire progressivement les supports SSD. Deux modèles sont en fait proposés par Dell, le PS6000XVS d'une interface iSCSI à 1 Gigabit, et le PS6010XVS à 10 Gigabit. Disponibles début aout, ces produits seront commercialisés à partir de 50 000 $. 

Le firmware 5.0 d'EqualLogic apporte également une intégration plus étroite avec les plates-formes de virtualisation de VMware. Un client de Dell qui a été déjà testé le nouveau firmware sur ses baies EquaLogic estime que cela renforce considérablement l'efficacité. Selon Joshua Wright, DSI de la société Bomgar, ce firmware 5.0 a permis de décharger VMware de certaines fonctions clefs. Surtout, il permet la création et le clonage de machines virtuelles au sein de la baie de stockage où elles sont hébergées. Bien que ces machines virtuelles ne contiennent généralement que le système d'exploitation, Windows 2008 OS occupe une grande partie de l'espace (jusqu'à 15 Go), souligne Joshua Wright. Et lorsque l'hyperviseur VMware ESX travaille sur ces questions, il exige de grosses ressources sur les serveurs et sur le réseau. En déchargeant, VWmare de ces fonctions, les opérations se déroulent beaucoup plus rapidement et l'hyperviseur comme le réseau peuvent être utilisés pour d'autres choses. 

« Quel système est mieux optimisé pour l'exécution d'une tâche particulière? Il est évident qu'une baie de stockage va être le meilleur système pour effectuer des opérations de stockage, » avance le responsable informatique. La société Bomgar, qui emploie 145 personnes à Ridgeland dans le Mississippi, prévoit de déployer sur toutes ses baies le nouveau firmware dès qu'il est disponible. Dell a annoncé qu'il sera disponible mi-juin pour tous les clients EqualLogic. 

[[page]]

Le texan a également mis à jour sa gamme de stockage d'entrée de gamme avec les baies MD3200 SAS (Serial-Attached SCSI) et MD3200i (iSCSI) qui remplacent les MD3000 et MD3000i. Elles seront également disponibles mi-juin à disponibles la semaine prochaine à partir de 11 000 $ environ. 

Terminons avec les annonces serveur et la version 3.0 de l'outil d'administration CMC. Après les lames quadri sockets, Dell commercialise la M710HD une lame demi-hauteur bi sockets Intel Xeon 5600 équipée de 18 connecteurs Dimm. En complément, la compagnie propose la M610X, une lame pleine hauteur avec des ports PCI Express pouvant accueillir des GPU pour le calcul intensif. Enfin, le serveur 2U R715 renforce la présence d'AMD chez Dell avec un système bi socket Magny-Cours doté de 18 slots Dimm. « Un bon rapport coût/prix »  précise Pierre Fournial, « d'autres systèmes AMD sont également prévus en fin d'année. »

Avec cette salve d'annonces, Dell marque au plus près ses principaux concurrents. Et grâce à ses partenariats avec Juniper et Brocade, Dell est plus en mesure de se battre à armes égales avec les grands fournisseurs de datacenters que sont Cisco et Hewlett-Packard.

(...)

(11/06/2010 11:44:39)

HP s'associe à une filiale d'EDF pour vendre ses conteneurs

Pour déployer ses serveurs en conteneur - ses fameux Pod -, HP s'associe à EDF Optimal Solution (EOS), une filiale d'EDF. Reprécisons à cette occasion qu'il ne s'agit pas vraiment de datacenter dans un conteneur puisque les indispensables et très encombrants équipements électriques et de refroidissement sont installés à proximité des Pod posés sur une dalle de béton dans un hangar ou un garage (voir illustration). Un concurrent, APC, propose des conteneurs datacenter intégrant des générateurs et des refroidisseurs. Google, de son coté, dissémine également à travers le globe des milliers de datacenters conteneurisés conçus en interne et dépourvus de système de refroidissement.

Les principaux avantages de ces solutions sont leur coût, jusqu'à 30% moins élevé en construction qu'un centre de calcul classique, et leur rapidité de déploiement, de 4 à six mois pour mettre en route un datacenter puisqu'il n'est pas nécessaire de demander un permis de construire pour installer containers et équipements additionnels. Selon Jean-Paul Allibert, directeur général services et technologie chez HP, la législation impose une simple déclaration pour l'aménagement de ce type de constructions techniques reposant sur un parking ou une dalle en béton.

[[page]]

Dans l'association  HP/EOS, les tâches sont clairement partagées. Le premier fournit les containers Pod et les équipements informatiques et réseaux et le second apporte son expertise dans les installations électriques et les systèmes de refroidissement essentiels au bon fonctionnement des Pod. Un guichet unique est mise en place dans les deux sociétés pour régler rapidement les problèmes rencontrés pas les utilisateurs. Les deux entreprises qui travaillent ensemble depuis un an déjà formalisent ici leur partenariat dans la fourniture de ressources informatiques globales. Et pour gagner du temps, HP peut fournir des containers prêts à l'emploi avec les câbles et les serveurs déjà installés.

Selon Pascal Lecoq, responsable datacenter chez HP, cette solution automatisée équivaut à un datacenter classique de 400 m2 et plusieurs dizaines d'audits sont en cours pour répondre à différents besoins en France. Installation complémentaire ou déploiement régional dans les métiers des télécoms, de l'informatique de gestion, de la simulation scientifique, du calcul financier ou pour la création d'un cloud. « Le marché des Pod est très récent, mais la croissance est devenue très forte. » Selon Jean-Paul Allibert, près d'un tiers des datacenters en France seront réaménagés ou même entièrement reconstruits pour offrir une meilleure efficience énergétique. C'est un des points mis en avant par HP et EOS pour promouvoir leur solution datacenter in the box qui permettrait de réduire d'environ 30% la facture électrique et donc la production de Co2.  « Dans un datacenter classique, plus de la moitié de l'électricité utilisée est perdue », explique Jean-Paul Alibert. « Avec nos solutions, les économies d'énergie réalisées sur 15 ans justifient la construction d'un nouveau datacenter. »

Près de 47 brevets ont été déposés par HP sur les technologies employées dans ses Pod de 6 ou 12 mètres disponibles à la vente ou à la location.  Il faut compter de 3 à 5 millions d'euros pour une installation avec 20 kms de fibre optique (600 000 € pour le petit Pod seul sans le matériel informatique).

(...)

(11/06/2010 10:20:54)

La demande de semi-conducteurs en forte hausse

Les dépenses d'équipement en semi-conducteurs devraient atteindre les 35,4 milliards de dollars en 2010. Une augmentation de 113% par rapport à 2009, où elles se situaient à 16,6 milliards de dollars. En revanche, 2011 sera beaucoup plus calme, avec une hausse limitée à 6,6%. En fait, le sous-investissement observé en 2008 et 2009, entraîne automatiquement une hausse en 2010.

Pour cette année 2010, le Gartner relève une forte demande pour les 40 nanomètres ou les 45, ce qui entraîne de lourds investissements de la part des fondeurs. Les principaux moteurs de croissance sont les noeuds 3x par Intel, l'augmentation des dépense par les producteurs de mémoire NAND, la transition vers la prochaine génération DRAM DDR3.

Tous les segments du marché des équipements semi-conducteurs connaîtront une croissance forte en 2010 assure le Gartner. Le segment WFE (fabrication de plaquettes) progresse de 113,3 %, mais tombera à +7,2% en 2011 ; les emballages et équipements d'assemblages (PAE) vont progresser de 104,7% en 2010, avant de tomber à 0,7% en 2011 ; les équipements de tests vont progresser de 133,1 % en 2010 et passer à + 12,6% en 2011.

(...)

(10/06/2010 18:40:06)

Exchange et SharePoint toujours en version 2007 dans le cloud

La messagerie Exchange 2010 a été livrée en novembre 2009 par Microsoft et la version 2010 du portail SharePoint est sortie en mai dernier. En revanche, les versions cloud de ces offres, accessibles à travers l'offre BPOS (Business Productivity Online Services), fonctionnent toujours sur la base des versions 2007.

L'objectif de Microsoft est d'offrir en ligne à ses clients, à l'identique, les fonctions qu'ils pourraient déployer en interne sur leurs serveurs. Mais... « Cela nous prend un peu de temps de mettre à jour les datacenters avec les nouvelles versions d'Exchange Server et de SharePoint Server », a récemment reconnu Chris Capossela, senior vice président du groupe Information Worker Product Management, chez Microsoft. « A la fin de l'année, nos plus importants clients en ligne disposeront des versions mises à jour, qui fonctionnent avec les serveurs 2010 ».

BPOS évolue chaque trimestre

Interrogé de nouveau sur ce point, cette semaine, par nos confrères de Network World, Microsoft a fourni une estimation légèrement différente, mais qui situe toujours l'essentiel de la mise à jour pour la fin de l'année. « BPOS est complété tous les trimestres de nouvelles fonctions et possibilités », a expliqué un porte-parole de Microsoft dans un courriel. Il confirme que l'éditeur a déjà mis à disposition des fonctions de la version 2010 pour ses plus grands clients en ligne. « Nous poursuivrons la livraison de la technnologie 2010 plus largement à l'ensemble de notre base client qui peut tabler sur une 'preview' de ces fonctions un peu plus tard dans l'année ».

Les entreprises qui attendent impatiemment d'exploiter Exchange 2010 et SharePoint 2010 dans le cloud peuvent s'adresser à un prestataire qui propose déjà des versions hébergées des technologies 2010.

Sur TechEd 2010, cette semaine, Microsoft a montré quelques-unes des possibilités qu'offrira Communications Server 14, dont la livraison est prévue pour le deuxième semestre. Des fonctions que les utilisateurs de BPOS ne verront que l'an prochain.

Illustration : Microsoft Exchange Online

(...)

(10/06/2010 18:16:41)

VCS, la fabrique de convergence de Brocade

Depuis le rachat de Foundry Networks en 2008, Brocade est engagé sur le chemin de la convergence réseau. Brocade One est aujourd'hui l'appellation marketing de cette stratégie chez l'équipementier qui ambitionne de simplifier la gestion des datacenters et de baisser les coûts d'administration. « L'ensemble du réseau est votre centre de données; un réseau unique simplifié qui n'impose pas de rupture technologique », explique Régis Harault directeur de Brocade France. L'équipementier cherche en effet à transformer les équipements physiques des centres de calcul en ressources virtuelles allouées ou réallouées via l'intermédiaire d'un VAL (Virtual Access Layer) reposant sur une machine virtuelle (QoS) et sur les switchs VCS (Virtual Cluster Commutation). Selon Bruno Guiet, architecte solutions EMEA chez Brocade, la solution VAL permet de déplacer les machines virtuelles au sein du datacenter en conservant tous les attributs de la VM. Reposant sur un standard ouvert, VAL ne supportera toutefois pas avant un an ou deux la norme IEEE Edge Virtual Bridging, qui inclut l'agrégation de port Ethernet virtuel (VEPA).

Principaux avantages des VCS, un temps de latence réduit, puisque les données circulent moins au sein du datacenter et une meilleure utilisation des ports Ethernet. Il n'y aura pas de support du protocole Spanning Tree en interne mais de Trill, explique Bruno Guiet. « On a davantage affaire à un super Ethernet qu'à un Ethernet », souligne ce dernier. Ce protocole améliore le transport des trames en utilisant tous les chemins disponibles et exploite tous les ports des switchs. VCS apporte également une fonctionnalité 
baptisée insertion dynamique de service, permettant de reconfigurer automatiquement à 90% des éléments et des services en récupérant et en réinterprétant les scripts. Comme chez l'équipementier Arista, chaque switch VCS a une base de données embarquée permettant de conserver les informations sur les différents équipements du réseau. Un commutateur VCS devrait supporter jusqu'à 1000 ports Ethernet 10 Gigabits et 10 000 VM. Un cluster de switch VCS pouvant être géré comme un seul commutateur logique dans un datacenter.

[[page]]

Attendue en fin d'année,  la plate-forme VCS reposera pour commencer sur trois commutateurs basés sur de nouveaux circuits ASIC et un système d'exploitation baptisé Brocade Network OS. Bâti sur un coeur Linux, ce dernier assurera la convergence entre Fibre Channel et services IP. Une architecture similaire à l'architecture de convergence de Cisco, les commutateurs Nexus animés par NX-OS. 
Uniquement compatibles avec les équipements réseaux de Brocade et de Foundry Networks déjà présents dans les datacenters, les trois commutateurs VCS comprennent un switch 2U  60 x 10G, un 1U 48 x 10G et un 1U 24 x 10G . Tous les ports fonctionnant à 
10G, précise Bruno Guiet. Les commutateurs 60 et  24 ports sont attendus au quatrième 
trimestre 2010. La version 48 ports arrivera quant à elle au premier trimestre de 2011. 

Brocade devrait également commercialiser un système de gestion des environnements Brocade One au troisième trimestre de cette année. Cette solution proposera le support d'Ethernet, de la Fibre Channel et du Data Center Bridging avec les solutions de stockage et les systèmes d'hyperviseur d'IBM, de HP, de Dell, d'EMC, de Microsoft et de VMware. Ce gestionnaire donnera une visibilité globale des VCS sur le réseau.

(...)

(10/06/2010 17:16:33)

TechEd 2010 : il manque encore des fonctions à Azure

Parmi les fonctions qui font encore défaut aux déclinaisons Azure des produits Microsoft, les plus importantes arriveront dans les 12 à 18 mois, a assuré Bob Muglia, le patron de la division Serveurs & Outils de Microsoft, sur l'édition 2010 du TechEd. « Cela ne veut pas dire que toutes les fonctions seront là, mais les principaux manques commenceront à être comblés », a-t-il prudemment précisé.

Pour attester des avancées en cours, Bob Muglia a listé un certain nombre d'éléments qui n'ont complétés que récemment les versions Azure. Par exemple, la prise en compte dans la base de données SQL Server des coordonnées de géolocalisation, ou encore le support de la version 4 de l'environnement de développement .Net. En revanche, il faut encore ajouter d'autres fonctions, telles que SQL Server Integration Services.

Capacité d'ajustement, bascule automatique

Dans son approche du cloud, Microsoft a choisi de se focaliser sur des attributs spécifiques à ce type d'infrastructure, comme la capacité d'ajustement automatique en fonction du nombre d'instances requises, quelle qu'en soit l'ampleur. Ou encore l'aptitude à basculer de façon automatique en cas de défaillance de l'un des sites. « Nous avons décidé de construire la plateforme avec ces attributs, quitte à ne pas pouvoir fournir tout de suite certaines autres fonctions dont vous auriez besoin ».

Porter des applications dans le cloud implique bien plus que de rendre simplement le logiciel accessible en ligne, a expliqué Bob Muglia. « Quand nous avons bâti Windows Server Azure, nous ne nous sommes pas contentés de prendre Windows Server et de l'héberger dans un datacenter. Nous avons déterminé ce dont nous aurions besoin pour construire une plateforme de cloud à l'échelle mondiale ».

Illustration : Bob Muglia, président de la division Server & Tools de Microsoft, lors de la PDC (Professional Developpers Conference) de Los Angeles en novembre 2009 [crédit photo : Microsoft][[page]]

L'éditeur s'est donc principalement concentré sur l'évolutivité d'Azure, pour lui donner les capacités de conserver de multiples copies des données à portée de main, et atteindre les autres pré-requis qui constituent les avantages du cloud computing.

« Nous démarrons d'abord avec un sous-ensemble et nous ajoutons des fonctions au fur et à mesure », explique Bob Muglia en présentant l'édition SQL Server Azure comme un exemple de cette approche. Le dirigeant fait remarquer qu'une seule instance de SQL Server Azure est exploitée à travers des milliers d'ordinateurs dans six datacenters dans le monde. « Personne n'a fait tourner une seule base de données sur autant de serveurs distribués », a-t-il affirmé sur TechEd.

Montée en charge réussie lors du Super Bowl Sunday

L'un des premiers utilisateurs d'Azure a été la chaîne de restauration américaine Domino's Pizza, indique Prashant Ketkar, directeur produit et marketing de Windows Azure. En janvier dernier, lors du Super Bowl Sunday (rencontre de football américain extrêmement suivie qui représente aussi la 2e journée record de consommation alimentaire aux Etats-Unis, après Thanksgiving), le fournisseur a pu faire monter en charge son système de commande en ligne pour prendre en compte le trafic supplémentaire.

Porter vers Windows Server Azure une application fonctionnant à l'origine sur Windows Server prend du temps, avertit Prashant Ketkar. A la fin de l'année, Microsoft fournira la possibilité de procéder à ces transferts sans reconfiguration, mais ces applications ne pourront pas tirer bénéfice des capacités de montée en puissance d'Azure, ni de ses autres fonctions natives.[[page]]
Pour Robert Wahbe, vice président corporate, responsable du marketing pour la division Servers & Tools, l'approche de la plateforme Azure est plus sophistiquée que celle de concurrents comme Google et Amazon, en raison du fait qu'elle fournit un seul environnement pour toutes les instances de logiciels, que ceux-ci fonctionnent en interne sur Azure, ou qu'ils tournent sur une autre plateforme de cloud basée sur le framework .Net. « Personne d'autre ne fait cela », avance-t-il.

Jusqu'à présent, ce sont les applications de messagerie et de collaboration qui ont été le plus souvent portées dans le cloud. Les applications plus complexes, telles que les ERP, y sont moins courantes. [NDLR : à noter, dans ce domaine, que l'éditeur Lawson propose à ses clients de déployer ses solutions ERP dans le cloud EC2 d'Amazon]

Les petites entreprises iront probablement vers le cloud avant les grandes, prévoit Bob Muglia, notamment parce qu'elles développent moins souvent leur propres applications.

(...)

< Les 10 documents précédentsLes 10 documents suivants >