Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 391 à 400.
| < Les 10 documents précédents | Les 10 documents suivants > |
(17/03/2011 10:18:34)
Etude Gartner : des datacenters plus denses et moins énergivores
Sur le premier point, la conception même des centres de données, le Gartner remarque que les datacenters actuels ont été créés pour la plupart à l'ère du mainframe. Donc, pour une performance moyenne selon les critères actuels. Il y a par exemple peu de variation possible de température ou de consommation énergétique.
Aujourd'hui, les exigences sont différentes sur les systèmes mécaniques et électriques, la composition, la charge de travail et l'âge du matériel. De nouveaux modèles arrivent ajoutant des zones de densité différentes suivant les charges de travail. Les zones secondaires s'occupent des applications consommant une quantité uniforme d'énergie. Les zones à faible densité soutiennent l'équipement de faible puissance.
Le green IT laissé pour compte
Concernant l'efficacité énergétique, peu de gestionnaires de datacenters y prêtaient attention. Sauf s'ils étaient poussés par l'opinion publique. Les nouveaux gestionnaires, eux, s'y penchent sérieusement. Les nouveaux centres respectent donc de nouvelles normes.
Les gestionnaires se préoccupent également de la densité des équipements (racks et serveurs) dans l'environnement du datacenter. La plupart des centres de données étant actuellement sous utilisés. La densité moyenne serait de 60% dans le monde actuellement. Il faudrait parvenir à 85 ou 90%. L'avènement du cloud computing devrait permettre d'atteindre ces nouveaux ratios.
Ce fameux cloud va permettre de transférer une partie de la charge de travail « dans le nuage » donc de libérer plus facilement de l'espace au sol et de la puissance. De nombreuses entreprises utilisent déjà des installations de colocalisation comme mécanisme de débordement. Toutefois, dans ce cas, la ressource de calcul est toujours détenue et gérée par le propriétaire de l'application. Avec le cloud, ce sera le rôle de l'hébergeur.
Crédit photo : D.R.
Pas de virtualisation chez Facebook mais des micro serveurs
Le géant du réseau social s'est prononcé en faveur de solutions Intel pour équiper ses datacenters de micro serveurs. Le fondeur californien va en effet proposer en 2012 quatre processeurs basse consommation pour animer ces micro serveurs. Avec notamment aux extrêmes : un Xeon consommant 45 watts et un inédit Atom, également doté d'instructions 64 bits, affichant une enveloppe thermique de 10 watts. Toutes ces puces auront des fonctionnalités habituellement réservées aux serveurs, tels que la compatibilité avec le jeu d'instruction 64 bits pour adresser beaucoup plus de RAM et la correction d'erreurs mémoire (ECC).
Facebook a déjà testé ces micro serveurs en production et s'intéresse à cette architecture pour équiper massivement ses centres de calcul, a expliqué Gio Coglitore, directeur de laboratoires de Facebook à l'occasion d'une conférence de presse Intel à San Francisco. L'intégration de fonctions réservées aux puces pour serveur est la clef pour utiliser ces micro serveurs dans les entreprises, a-t-il ajouté.
Des solutions déjà proposées sur base Intel
Le micro serveur de petite taille et de faible puissance est un concept qu'Intel a présenté en 2009. Très concentrés - jusqu'à 256 processeurs chez SeaMicro par exemple - les micro serveurs sont plus beaucoup denses que les serveurs en rack ou en lames. Dans un datacenter classique, ils peuvent en outre partager les systèmes de refroidissement et les connexions réseau qui équipent déjà les armoires traditionnelles, a souligné Boyd Davis, vice-président marketing en charge du groupe datacenter chez Intel.
Des constructeurs tels que Dell, Seamicro et Tyan ont déjà adopté cette architecture, particulièrement populaire chez les grands fournisseurs de services cloud computing et les petits hébergeurs de services web, selon Intel. La firme de Santa Clara s'attend à ce que les micro serveurs représentent à peu près 10% du marché des processeurs pour serveurs.
[[page]]
Les serveurs web front-end, énormément utilisés par Facebook, sont particulièrement bien indiqués pour passer sur une architecture de type micro serveurs, selon Gio Coglitore. «Après l'annonce d'Intel, c'est juste sur le point d'arriver », a-t-il dit. Facebook va probablement commencer à installer des microserveurs sur une grande échelle en fin d'année ou au début de la prochaine.
La plate-forme sociale utilise plusieurs types de serveurs dans les différentes parties de ses datacenter, mais l'aversion de la société à l'égard de la virtualisation s'étend à toutes ses infrastructures, a indiqué Gio Coglitore. «Lors de nos différents tests, nous avons validé que notre infrastructure informatique nous permet de réaliser des économies et nous apporte la souplesse nécessaire pour accompagner notre croissance. Si la virtualisation était la bonne approche, nous serions passés à un environnement virtualisé. »
Pas de recours à la virtualisation
Facebook veut être en mesure d'équilibrer ses charges de travail sur plusieurs systèmes et perdre un serveur sans dégrader l'expérience utilisateur. «Lorsque vous commencez à virtualiser, l'importance de ce serveur particulier devient beaucoup plus importante, et quand vous avez concentré une grande charge de travail, cela devient encore plus difficile de s'en passer » assure à contre-courant Gio Coglitore. Ce dernier préfère utiliser des machines aussi anonymes et interchangeables qu'un « fantassin ». « La virtualisation rend plus difficile la gestion des ressources matérielles de cette façon, précise le responsable informatique de Facebook. L'ajout d'une couche logicielle de type hyperviseur tend également à verrouiller l'infrastructure, a-t-il précisé.
En outre, bien que Facebook puisse avantageusement utiliser des serveurs plus puissants sur ses plates-formes pour certains besoins, la firme a choisi de se tourner vers des machines d'entrée de gamme pour des questions budgétaires. Facebook préfère en effet changer de serveurs tous les deux à trois ans, pour suivre les évolutions processeurs d'Intel et des autres fondeurs, indique Gio Coglitore.
Pour tester les plates-formes micro serveurs, Intel expédie actuellement des puces Xeon 45 watts (E3 1260L) et 20 watts (E3-1220L), ainsi qu'un processeur 15 watts reposant sur l'architecture Sandy Bridge. La solution Atom 10 watts, attendue l'année prochaine, n'a pas encore reçu d'appellation commerciale selon Boyd Davis d'Intel.
Google Apps assouplit ses mises à jour pour les administrateurs
Jusqu'à présent, Google apportait, de manière transparente et continue, des améliorations à sa suite d'Apps dès qu'elles avaient été testées et jugées bonne pour le service, à la façon dont l'entreprise le fait pour ses applications grand public et ses sites. Cependant, certains administrateurs d'Apps, en particulier ceux des grandes entreprises, ont souhaité obtenir à la fois, plus de contrôle sur les changements, mais aussi bénéficier d'un temps d'adaptation avant de rendre les mises à jour opérationnelles dans leurs espaces de travail. Ainsi, les administrateurs d'Apps pourront désormais opter pour des mises à jours programmées dites « Scheduled Release », afin d'appliquer les améliorations selon un calendrier hebdomadaire ou bi-hebdomadaire, en bénéficiant d'un délai d'une ou deux semaines avant une mise en ligne.
« Ce processus de mise à jour des Google Apps répond aux besoins de nos clients professionnels, » a déclaré Rajen Sheth, Group Product Manager, Google Enterprise. En même temps que le lancement de l'option de mise à jour programmée, Google inaugure un portail consacré aux updates des Apps et à leurs améliorations, qui contribuera aussi à mieux informer les administrateurs. Ceux-ci pourront y trouver des informations sur les Apps, des ressources, et en particulier du matériel de formation à l'intention de leurs utilisateurs finaux.
Une demande forte des administrateurs
Les Apps, cet ensemble d'outils de collaboration et de communication entièrement hébergé sur le web, comprend des fonctions de messagerie, d'agenda, des applications de productivité bureautique, une messagerie instantanée, des fonctions intranet et d'autres applications professionnelles. En tant que tel, les administrateurs d'Apps ont peu ou pas de contrôle sur le logiciel, en particulier en ce qui concerne sa maintenance et ses améliorations, un processus entièrement géré par Google. En 2010 par exemple, l'éditeur a effectué 130 mises à jour sur les Google Apps. Certes, l'un des avantages du cloud computing et de ces suites hébergées comme les Apps est de laisser aux fournisseurs la responsabilité de la maintenance, du déploiement des correctifs et des mises à jour. Mais il a aussi pour inconvénient de retirer aux services informatiques le contrôle sur les cycles de mise à jour des logiciels.
« Certains administrateurs d'Apps, en particulier ceux des grandes et moyennes entreprises dont le service informatique est chargé d'apporter un support technique à ses utilisateurs finaux, ont demandé à Google plus de visibilité sur les sorties. Car des changements, même minimes, peuvent avoir des conséquences dramatiques au moment de l'utilisation, » a déclaré le Group Manager. Par exemple, un changement d'interface peut perturber grandement les utilisateurs finaux et provoquer une série d'appels à l'assistance technique.
[[page]]
Si le personnel chargé du support n'a pas pu tester lui-même les nouvelles fonctionnalités, il peut se trouver très embarrassé pour répondre immédiatement aux questions qu'on lui pose. « Ils veulent être informés de la date à laquelle auront lieu les mises à jour, ce qui change, disposer de plus d'informations sur les nouveautés, pour être mieux préparés et savoir répondre à leurs utilisateurs », a déclaré Rajen Sheth. « C'est pourquoi nous voulons offrir plus de visibilité à ce processus, » a t-il ajouté.
Des programmations sur les éléments visibles
Pour Rebecca Wettemann, analyste dans le domaine de l'industrie, cette nouvelle manière d'opérer est une bonne chose. « Cela montre que Google travaille à rendre ses applications plus adaptées au fonctionnement des grandes entreprises, » a-t-elle déclaré. « De plus, les entreprises souhaitent souvent accompagner les mises à jour de sessions de formation, les entourer d'autres initiatives ou faire tester les nouvelles fonctionnalités par un groupe pilote avant de déployer l'application à l'ensemble de ses salariés, » ajoute-t-elle. « Cela devrait aider les responsables informatiques à tirer profit des innovations de Google selon un calendrier propre, pour limiter les perturbations et faire en sorte que les utilisateurs en tire de meilleurs bénéfices,» a encore déclaré l'analyste. « Pour ce qui est de la mise en oeuvre, nous serons attentifs aux retours faits par les administrateurs. Nous pensons aussi que Google va poursuivre ses efforts pour montrer que l'entreprise investit dans des applications de classe entreprise. »
Par défaut, les clients des Apps seront abonnés à l'option de « Scheduled Release », sauf pour ceux qui avaient déjà choisi de disposer des fonctionnalités en « pre-release. » Ces clients resteront dans le système des mises à jour rapides, c'est à dire que les changements leurs seront appliqués dès qu'ils seront prêts, et cela sans préavis. Même s'ils n'étaient pas abonnés au système de pre-release, les administrateurs d'Apps pourront passer de l'option « mise à jour programmée » à l'option « mise à jour rapide » s'ils le souhaitent. L'option de mise à jour à date différée ne concernent cependant que des éléments visibles des utilisateurs finaux, comme la personnalisation de l'interface ou d'autres fonctionnalités, mais pas celles faites en arrière-plan, notamment les correctifs de sécurité ou de bogues et autres, lesquelles seront toujours déployées à l'ensemble du service d'applications hébergées de Google.
Eurocloud délivre ses recommandations et interpelle Eric Besson
Ce 15 mars, Pierre-José Billotte, le président de la manifestation a donc remis au Ministre de l'industrie et de l'économie numérique 17 recommandations en rappelant qu'aux Etats-Unis, l'Administration Obama a lancé le plan « cloud-first », les investissements publics devant privilégier le modèle cloud plutôt que le modèle traditionnel.
Ces 17 propositions seront déclinées en trois axes : l'offre, la demande et la distribution. Concernant l'offre, Eurocloud souhaite par exemple la création d'un Fonds d'investissements publics, de 500 millions d'euros, pour soutenir, en fonds propres, des entreprises qui innovent dans les services cloud, même si leur chiffre d'affaires est des plus réduit. L'idée est de faire porter l'effort public vers les services et pas seulement vers les infrastructures. Dans la foulée, cet effort public doit encourager ces entreprises à aller vers l'international.
Mise en place d'un label européen de sécurité du cloud
Côté demande, la manifestation souhaite que la commande publique, comme aux Etats-Unis, soit orientée vers le cloud. La DICSI (Direction interministérielle des systèmes d'information, qui vient de se mettre en place) pourrait s'en charger. Eurocloud souhaite également, cette fois à l'échelle européenne, la publication d'un label en matière de sécurité du cloud (Neelie Kroes, commissaire européen était intervenu sur ce thème). Enfin, toujours en matière de demande, il souhaite la transparence en matière de localisation des données.
Plus original, le groupe envisage la création d'un site où seraient répertoriées toutes les condamnations émises par des tribunaux français en matière de cloud. En clair, un tel Tribunal condamne une entreprises pour des défaillances, mais cette entreprises étant située à l'autre bout du monde (ou même de l'Europe), la condamnation n'est pas exécutée. En publiant le nom du condamné, au moins les clients auraient-ils la possibilité d'accéder à une « liste noire » internationale.
Un label sécurité pour le cloud public
Eurocloud ne peut qu'être très international. L'Association compte maintenant 25 adhérents, y compris dans les pays d'Europe de l'Est (Pologne, Ukraine, Hongrie). Le label sécurité qu'elle souhaite promouvoir a été élaboré par la branche allemande. La thématique distribution, si chère à Pierre-José Billotte, est également internationale avec la mise en route de politiques cloud chez les grossistes internationaux (spécialisés comme Arrow ou généralistes comme Ingram), l'émergence d'intégrateurs de taille mondiale (comme Revevol), ou d'intégrateurs qui imposent à leurs ingénieurs d'être trilingue (comme gPartner). Eurocloud tiendra sa prochaine réunion européenne les 27 28 juin au Luxembourg.
Obama veut favoriser le cloud dans l'administration
Depuis décembre 2010, la General services administration (GSA, agence qui fournit les ministères en équipements en tout genre et les aide à réduire leurs dépenses) a passé sa messagerie sur Gmail. La GSA explique que ses serveurs ayant au moins six ans d'âge, il devenait difficile de les prolonger. Le passage au cloud devenait donc une solution appropriée. 17 000 comptes mails vont migrer. C'est un budget de 6,7 millions de dollars, attribué à Unisys, qui collaborera avec Google et Tempus.
Diminuer les dépenses et la consommation énergétique
Cette politique en faveur du cloud computing a été annoncée en septembre 2009, par le DSI fédéral Vivek Kundra. Elle a mis un an à commencer à entrer dans les faits. L'Administration Obama estime que le cloud computing permet de partager des infrastructures, des technologies (applications et services basés sur le web) et de diminuer les dépenses et la consommation énergétique.
Selon Vivek Kundra, le gouvernement fédéral a un budget informatique de 76 milliards de dollars (chiffre 2009), dont plus de 19 milliards consacrés aux seules infrastructures. Il construisait data center après datacenter (il en dénombre 2 100 !), mais veut réduire ces dépenses d'infrastructure. Il se donne dix ans pour cela. Vivek Kundra et ses équipes incitent également les ministères à passer au cloud, cette fois côté services au public
Sorti de l'ombre Hurd, HP se lance dans le cloud public
Depuis son arrivée à la tête de Hewlett-Packard, Leo Apotheker, CEO en titre, vivait dans l'ombre de Mark Hurd, le précédent CEO désormais chez Oracle. En dévoilant la stratégie du groupe informatique pour les prochaines années avec notamment le lancement d'un cloud public concurrent des plates-formes d'Amazon et de Google, Leo Apotheker sort enfin de l'ombre de son prédécesseur. En plus d'une offre Infrastructure-as-a-Service (IaaS), HP proposera également une place de marché applicative pour les consommateurs, les petites et moyennes entreprises, et les grands comptes, a précisé Leo Apotheker.
Une offre multi tiers
Il y aura quelque chose pour tous les clients de HP sur le marché, a-t-il ajouté. « Nous allons fournir un marché ouvert unique qui proposera des services pour les consommateurs, les entreprises et les développeurs », a-t-il expliqué lors d'une réunion organisée pour la presse et les analystes à San Francisco
le lundi 14 mars. La place de marché comprendra une boutique d'applications, ainsi que des outils pour les développeurs, des services et du support pour les entreprises a-t-il dit.
HP ne précise pas quand cette plate de marché et ces services en ligne seront disponibles, mais Leo Apotheker indique que les services seront ouverts, supporteront de nombreux langages de développement, et pourront être utilisés par n'importe quel éditeur de programmes. « Nous ne vérifierons que la sécurité et l'interopérabilité des logiciels » a-t-il ajouté.
Un savoir faire à mettre en oeuvre
La firme de Palo Alto possède tout le savoir-faire pour construire de telles offres. Elle est très bien positionnée auprès des consommateurs, maitrise toutes les briques infrastructures ainsi que la technologie middleware nécessaire pour faire fonctionner ensemble les applications. HP ambitionne clairement de devenir aussi grand que certains fournisseurs bien connus de services cloud computing (Amazon, Google ou encore Microsoft).
« Si vous voulez être dans le business cloud, il faut le faire à grande échelle», a souligné Leo Apotheker. « Vous devez être en mesure de servir les clients partout dans le monde. » Mais il est difficile de savoir si HP réussira à attirer les développeurs de logiciels sur sa plate-forme et séduira les consommateurs et les développeurs de la même manière que des concurrents tels que Google et Amazon.
[[page]]
Les investisseurs avaient besoin d'être rassurés sur l'avenir de HP depuis que Leo Apotheker a succédé à Mark Hurd, il y a déjà cinq mois. L'action de HP n'a pas bien réagi au départ de Mark Hurd avec une sous-performance d'environ 17% à l'index Standard & Poor's 500. Toujours aussi confiants, les analystes financiers se demandaient même si Leo Apotheker était bien l'homme de la situation pour relancer HP.
Peu de vraies innovations grand public
Alors que les entreprises IT telles que Google et Apple ont vu leurs profits augmentés en flèche suite à leurs annonces sur le marché grand public, HP court toujours après de réelles innovations à succès. Le mois dernier, la firme de Palo Alto a bien annoncé le TouchPad - une tablette tactile qui arrive sur un marché aujourd'hui dominé par l'iPad d'Apple. Reposant sur le système d'exploitation webOS que HP a récupéré suite au rachat de Palm en 2009, cette ardoise électronique est attendue en juin prochain aux États-Unis.
2011, une année très PaaS selon Gartner
Dix jours après Markess, qui s'intéressait à la fois à l'Iaas et au Paas, le Gartner publie une étude sur le seul Paas (Platform as a service). Comme souvent, le cabinet américain fait dans l'euphorie. « Fin 2011, la bataille pour le leadership du Paas, aura englouti l'industrie du logiciel » explique Yefim Natis, vice-président au Gartner. Cet analyste prédit également un début de consolidation de l'offre Paas. Les utilisateurs devant s'attendre à une vague d'innovation et de battage sur le sujet.
Le Paas, rappelle le Gartner, concerne la couche d'architecture qui contient tous les services d'application (le « middleware »). C'est la couche moyenne, une technologie intermédiaire entre l'infrastructure du système sous-jacent (systèmes d'exploitation réseaux, virtualisation, stockage ...) et les logiciels d'application.
Au cours des trois prochaines années, la variété de l'offre en PaaS permettra de consolider quelques grandes suites d'applications d'infrastructure de services. Dans les cinq prochaines années, l'adoption du Paas ne conduira pas à une transition directe vers le cloud, mais à la coexistence, l'interopérabilité, l'intégration entre plusieurs modèles, souligne également le Gartner.
Des modèles et des normes à créer
« L'ère du cloud computing ne fait que commencer, et les modèles en vigueur, les normes et les meilleures pratiques du génie logiciel pour le cloud n'ont pas encore été établis. C'est une opportunité pour les fournisseurs de nouveaux logiciels pour bâtir une présence de premier plan dans les solutions logicielles du marché, » a déclaré Yefim Natis. « C'est également un défi technique majeur pour les fournisseurs de logiciels établis : conserver leur leadership tout en se projetant dans le nouvel espace sans nuire à leurs acquis durement gagnés dans le marché de l'informatique sur site. »
Pour leur part, les utilisateurs seront précipités dans le cloud computing (avec des services d'application commerciale de type SaaS) et des services de plate-forme avancée (par exemple, PaaS) atteignant des niveaux acceptables de maturité et offrant de nouvelles fonctionnalités innovantes.
Cisco se dote d'un Cloud Partner Program
Le cloud appelle une démarche différente vis-à-vis des partenaires, c'est la raison d'être du Cloud partner program. Il sera lancé, partout dans le monde, aux mois de mai-juin-juillet, qui correspondant au 4ème trimestre fiscal Cisco. Mais tout en étant différent il repose sur le pilier de la politique Cisco : le tout indirect. Visiblement, il est nécessaire de réaffirmer ce point qui distingue Cisco en matière de cloud : « CPP correspond à la fois à un phénomène de marché important, qu'il faut savoir prendre en compte et à l'affirmation par Cisco de sa stratégie indirecte, surtout en matière de cloud », note Bruno Dutriaux, expert datacenter et virtualisation. « Nous sommes un acteur important du cloud et, pour nous, l'accès à ce marché ne peut se faire qu'avec nos partenaires ».
Ce Cloud partner program comprend trois éléments : builder, provider, services reseller. Il s'agit de trois « branding », autrement dit de trois qualifications. « Builder » correspond aux partenaires qui sont aptes à créer une infrastructure de cloud, soit pour une entreprise soit pour un provider. La qualification valide leurs compétences, en particulier sur les sujets infrastructure, applications management et service professionnels de cloud. « Provider » s'adresse aux partenaires intervenant sur le marché sur des technologies Cisco et celle de son écosystème de partenaires technologiques mais avec au moins une technologie Cisco. « Services reseller «, enfin, concerne les partenaires agissant en marque blanche.
Un partenaire peut mobiliser une, deux ou trois de ces qualifications. D'autres programmes sont en cours d'élaboration pour accompagner CPP au plan financier. Un financement particulier est envisageable pour réaliser une infrastructure de cloud ou lancer des campagnes marketing communes. Des « collaborative services » sont également mobilisés pour faire évoluer les distributeurs.
Dans un horizon de 18 à 24 mois, l'ensemble des partenaires Cisco seront concernés par CPP.
Cloud computing : IBM se distingue avec une offre globale
« Après avoir beaucoup expliqué notre vision du cloud computing, nous avons observé un tournant. Fin 2010, on est passé du quoi au comment » nous a expliqué Virginie Hass d'IBM. Le cabinet d'études IDC abonde dans ce sens en indiquant que les dépenses dans le cloud représentent aujourd'hui 15% des dépenses informatiques des entreprises et passeront à 17% en 2015. « Une large majorité de nos clients ont une démarche cloud et, à l'exception des fournisseurs de services cloud, à travers 3 étapes bien distinctes ».
«1ère étape : des tests cloud sur des workloads simples à retour sur investissement rapide : des projets de test et développement, mais aussi du collaboratif. C'est clairement une démarche exploratoire.
2ème étape : L'adoption du SaaS pour accompagner une croissance rapide à l 'aide d'outils CRM. Beaucoup de PME y vont, car elles n'ont pas le budget pour une solution traditionnelle.
3ème étape : Transformer son système d'informations pour accompagner évolution de son business ».
À titre d'exemple, la dirigeante d'IBM cite le travail réalisé par l'université de Bari en Italie pour mettre à la disposition des pêcheurs de la ville des postes de travail virtualisés pour entrer le plus rapidement possible leur pêche du jour sur une plate-forme de marché local reposant sur un cloud. « Nous croyons que nos clients vont utiliser les moyens du cloud pour les mettre au service d'autres. Et si la majorité des investissements va aujourd'hui sur des solutions de type cloud privé, nos clients vont tout d'abord sur des clouds publics pour essayer la technologie. » Interrogé sur les différentes dans les marchés émergents, Virginie Haas explique volontiers que ces derniers voient dans le cloud un moyen d'accéder à des technologies qu'ils ne peuvent pas toujours se payer.
Une offre cloud computing sur 3 niveaux
Selon la vice-présidente, IBM accompagne les clients qu'elle que soit le modèle et attend un chiffre d'affaires de 7 milliards de dollars dans le cloud dont 3 milliards de nouveau business. Une partie de l'activité traditionnelle de Big Blue basculant logiquement sur cette plate-forme. Pour accompagner ses clients, IBM met en avant ses 13 labs disséminés à travers le monde. La France accueille par exemple à La Gaude, un centre cloud spécialisé dans l'industrie. Six datacenters à l'architecture commune sont répartis à travers le monde pour assurer une couverture horaire complète et un service 24/7 : deux aux États-Unis, un au Canada, un en Allemagne, un à Tokyo et un petit dernier à Singapour qui représente un investissement de 36 millions de dollars.
L'offre cloud d'IBM se décompose en trois niveaux :
- Le matériel avec CloudBurst pour les clients finaux ou les fournisseurs de service cloud, concurrent des plates-formes HP BladeSystem Matrix, Oracle On Demand, Dell Virtual Integrated System (VIS) ou encore VCE VBlock.
- Le cloud public d'IBM, reposant sur les six datacenters, concurrent des solutions Amazon EC2 et Microsoft Windows Azure, pour toutes les applications Tiers3 et Tiers4.
- Enfin, les solutions verticales pour les opérateurs télécoms et les SSII proposant une plate-forme de services cloud.
IBM est d'ailleurs le premier utilisateur de ses datacenters pour ses propres services cloud notamment en terme de recherche et développement.
Illustration principale : Virginie Haas, vice-présidente chez IBM GTS en charge de la stratégie et des ventes cloud.
(...)
| < Les 10 documents précédents | Les 10 documents suivants > |