Flux RSS

Cloud computing

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

904 documents trouvés, affichage des résultats 471 à 480.

< Les 10 documents précédentsLes 10 documents suivants >


(06/01/2011 11:20:02)

BP choisit HP pour consolider ses datacenters et les ouvrir au cloud

BP a annoncé avoir confié à HP le remplacement de ses datacenters à travers le monde. Le contrat, d'une durée de cinq ans, est annoncé pour un montant de 400 millions de dollars. « Selon les termes du contrat, HP fournira des services de centres de calcul à BP, à l'échelle mondiale, pour lui permettre de standardiser et de consolider ses services d'hébergement et de profiter d'innovations telles que le cloud computing » indiquent les deux firmes dans leur communiqué.

Ce contrat constitue en fait une extension au monde entier et une renégociation d'un contrat pré-existant qui ne concernait que le Royaume-Uni, pays du siège de la compagnie pétrolière. L'infogérance des centres de calcul inclut bien sûr l'administration des infrastructures matérielles, y compris les sauvegardes et la supervision, mais aussi celle des middlewares et des bases de données.

HP proposera des services, notamment de support, localisés dans différents pays, y compris en off-shore en Inde. Le prestataire s'est aussi engagé à permettre l'intégration de services de clouds externes en complément d'une offre de cloud disponible en option dans le contrat.

Ce contrat complète ceux signés il y a un an et demi qui réorganisaient la sous-traitance du pétrolier.

(...)

(04/01/2011 14:45:59)

Les pertes de données de Hotmail entament la confiance dans le cloud

Cette erreur est certainement liée à un bug dû au changement de date. Après leur authentification, les utilisateurs de Hotmail, outre l'écran de bienvenue semblable à celui qui apparaît normalement après une période d'inactivité de service de 270 jours (délai d'inutilisation à partir duquel toutes les données sont automatiquement supprimées), ont eu la mauvaise surprise de trouver leur boîte de réception complètement vide. Microsoft affirme avoir résolu le problème et dit avoir pu restaurer les e-mails, rassurant des utilisateurs laissés dans l'inquiétude pendant plusieurs jours.

Avec ses 364 millions d'utilisateurs, Hotmail est le service de webmail le plus populaire au monde. Même si Microsoft n'a communiqué aucun chiffre sur le nombre d'utilisateurs affectés par le problème, environ 500 personnes ont posté des plaintes auprès du Windows Live Solution Center. 500 utilisateurs qui ont pris la peine de manifester leur mécontentement, sachant peut-être aussi sur quel forum le faire. En considérant que de nombreux internautes ont une connaissance limitée en matière technologique, on peut imaginer que le nombre total de personnes touchées est sans doute très important. Seulement 1% d'utilisateurs de Hotmail touchés, et ce sont potentiellement 3,6 millions de personnes concernées par la perte de données... Dans ce contexte, Microsoft a répondu à la manière d'un pompier qui annonce avoir maitrisé un feu, soutenant que les dégâts étaient « limités », et adressant ses excuses pour la gêne occasionnée. Une formule assez légère qui a du laisser les utilisateurs dans un certain désespoir face à la perte de ce qu'il considère comme une partie de leur vie.

Craintes sur le cloud ?

Surtout, cet accident arrive à un moment particulièrement mal venu pour Microsoft, puisque l'éditeur doit bientôt lancer Office 365, son premier essai d'envergure pour introduire une suite bureautique cloud. Car si la firme de Redmond ne peut pas assurer un service de mails fiable dans un cloud qu'elle gère depuis le siècle dernier, peut-on lui faire confiance en lui demandant d'héberger des données d'entreprise ? Et si Google ou d'autres fournisseurs de messagerie web envisageaient de profiter de ce faux-pas, mieux vaut le leur déconseiller. En effet, de temps à autre, un nombre important d'utilisateurs de Gmail a déjà vu disparaître l'ensemble des messages contenus dans leur boîte de réception. Cela a été le cas l'année dernière où des boites mails de certains utilisateurs ne contenaient plus aucun message, heureusement réapparus après 30 interminables minutes. Pour l'utilisateur de longue date, c'est un choc, car comment souvent, Gmail devient le miroir de sa propre vie. Le webmail sert de coffre-fort pour conserver des photos de famille envoyées à des proches en pièces jointes, il conserve la trace de numéros de téléphone ou d'adresses inscrits dans le corps des emails échangés, sans compter les divers mémos que l'on s'envoie à soi-même pour se rappeler certaines choses. En un mot, on compte un peu sur des services de type Gmail. Certains ont bien essayé de tout sauvegarder sur Google Gears, mais ont fini par abandonner, faute de savoir ou de pouvoir faire correctement les paramètrages. Il faut donc espérer que Microsoft et tous les fournisseurs de cloud tirent les leçons de ce nouvel incident. Ils doivent comprendre que chaque utilisateur est précieux. Chacun leur concède une confiance disproportionnée. Pour eux, un taux de fiabilité de 99,99 % n'est pas suffisant : ils attendent du 100 %.

Cette exigence ne s'applique pas nécessairement aux autres services en ligne. Par exemple, si Facebook s'effondrait, cela pourrait être irritant mais pas catastrophique (sauf pour un adolescent, peut-être). Au contraire, les services comme les suites bureautiques ou les plates-formes de messagerie sont différents. Parce qu'ils font parti d'un mode de vie très réel, et que nous les utilisons en permanence pour gérer notre quotidien. Nous leur accordons une confiance qui va bien au-delà de celle que nous concédions aux ordinateurs jusque-là. Et cela ne va pas aller en s'arrangeant, puisque le cloud fonctionne aussi sur nos téléphones portables et tablettes. Autant dire que les différents acteurs ont l'obligation de ne pas trahir la confiance que nous avons mis en eux.

(...)

(30/12/2010 14:07:24)

Les dix prédictions d'IDC pour 2011 sur fond d'expansion numérique

Comme à chaque fin d'année, IDC consulte l'ensemble de ses équipes d'analystes réparties dans le monde pour déterminer les 10 tendances majeures pour 2011. Le cabinet d'études se livre au jeu des prédictions pour les mois suivants et se penche sur les technologies dont l'adoption va se confirmer ou s'ébaucher. Au cours des prochaines semaines, il va détailler chacune d'elles en déclinant des scénarios appliqués à différents segments de marché.

1 - En premier lieu, la croissance des dépenses IT mondiales pourrait approcher les 5,7%. Modérée sur les logiciels et services, elle bénéficiera d'un rebond sur les services.

2 - Cette croissance devra beaucoup aux marchés émergents, Chine en tête, qui y contribueront pour plus de la moitié. Dans ces régions, le taux de progression sera 2,6 fois plus élevé que les marchés développés.

3 - L'adoption du cloud va passer à la vitesse supérieure en intensifiant l'alternative privé/public. Dans le même temps, l'expression « cloud computing » va passer de mode.

4 - Les datacenters vont continuer leur transformation, tirée vers le cloud : intégration de ses différentes composantes (stacks), logiciels d'entreprise prêts pour le cloud, et une attention particulière portée aux fournisseurs de services qui deviennent des clients stratégiques.

5 - Comme chacun s'y attend, l'explosion de la mobilité va se poursuivre : énormes volumes de terminaux, nouveaux formats et « millions » d'applications mobiles (oui, des millions, insiste IDC).

Un univers numérique en expansion : 10^12 gigaoctets

6 - Les réseaux haut-débit vont devoir lutter et innover pour tenir la route face aux réseaux sans fil 4G/LTE qui commencent à se propager. Toutefois, les échanges Ethernet (utilisés en particulier pour les systèmes de stockage) vont modérer la rétraction subie par le haut-débit filaire. Les réseaux de diffusion de contenus (CDN) vont de leur côté prendre du poids.

7 - IDC voit par ailleurs 2011 comme une année de consolidation et de convergence pour les acteurs des logiciels liés aux réseaux sociaux. Pour le cabinet d'études, l'année qui vient verra une forte augmentation du réseautage social dans les PME.

8 - L'univers numérique en expansion (il atteindra 1 800 milliards de gigaoctets -10 puissance 12 Go) va accentuer la demande pour récupérer facilement les informations en ligne et pour l'analyse en temps réel de ces 'Big Data', gigantesques volumes de données.

9 - Les industries que le monde anglo-saxon qualifie d'intelligentes (parce qu'elles introduisent les traitements informatiques au coeur des véhicules ou des bâtiments) vont mettre la mobilité et les réseaux sociaux à l'oeuvre pour profiter de la ruée vers les achats mobiles de loisirs. IDC pense que ce secteur va se mettre en ordre de marche pour faire face à l'augmentation des paiements mobiles et se préparer à la prochaine génération de services de santé.

10 - Les industries de l'IT, des télécommunications et des médias vont prendre position pour répondre à la demande du grand public pour les TV web. IDC s'attend à une bataille entre fournisseurs spécialisés sur les médias et les loisirs pour s'imposer comme l'opérateur virtuel de référence. Enfin, le cabinet d'études prévoit une très forte augmentation de la publicité sur mobile.

Illustration : Le datacenter de HP à Houston (Texas). Crédit photo : D.R.

(...)

(27/12/2010 15:05:05)

Cloud : La suite BPOS de Microsoft laisse filer des données

Mercredi dernier, Microsoft a fait savoir que des données contenues dans sa suite Business Productivity Online Suite (BPOS) avaient été téléchargées par des utilisateurs non autorisés. Cette affaire pourrait faire date, et marquer le premier grand événement relatif à la violation de données dans un cloud. Selon certains, à l'avenir, ces fuites accidentelles risquent fort de se multiplier. Jusqu'à devenir banales. Et d'espérer pour chacun de ne pas en être une victime.

On pourrait, par réflexe, blâmer d'office les pirates. Mais ce n'est pas ce qui s'est passé cette fois-ci. La fuite a résulté d'un « problème de configuration » non détaillé survenu dans les datacenters de Microsoft aux États-Unis, en Europe et en Asie. Le carnet d'adresses Offline de la suite BPOS, qui contient les informations de contact professionnel, a été rendu accessible à des utilisateurs non autorisés dans des «circonstances très particulières, » selon Clint Patterson, chargé par Microsoft de présenter des excuses au nom de l'entreprise. Le problème a été résolu deux heures après avoir été découvert, ce qui ne permet pas de dire pendant combien de temps l'accès à ces données était ouvert. Par chance pour Microsoft, l'entreprise, qui réalise le traçage des données, a pu contacter ceux qui avaient téléchargé ces éléments par erreur pour faire un peu de nettoyage.

Trois risques de fuite

À n'en pas douter, l'affaire aura un impact certain chez ceux qui envisageaient d'adopter le Cloud dans l'année à venir, en particulier ceux qui regardaient du côté d'Office 365, l'offre cloud majeure de Microsoft en liaison avec sa suite bureautique Office.

Globalement, trois évènements peuvent menacer les données de n'importe quel fournisseur Cloud : une mauvaise configuration ou des bugs dans le logiciel de service cloud ; le vol de données par des pirates, pour le plaisir ou pour le profit ; des employés négligents avec les données confidentielles. Ce troisième point n'est pas nouveau : les employés ayant accès aux données sensibles risquent toujours d'orienter accidentellement les datas vers des personnes non autorisées. C'est ce qui se passe dans les nombreux accidents de messagerie où une mauvaise pièce jointe est envoyée, ou quand des emails sont accidentellement transmis à d'autres destinataires.

Le cloud, une source de très grosses erreurs ?

La collaboration entre l'homme et l'ordinateur posera toujours quelques problèmes. À une différence près : le cloud computing offre la possibilité unique de faire de très grosses erreurs. Les nombreux services en ligne permettent de partager des données entre individus aussi facilement qu'avec la totalité de l'Internet. Le travail collaboratif est même une des raisons d'être des services cloud. On imagine donc facilement ce qui pourrait arriver : il est tard, un employé fatigué voudrait partager le document « Invitation à la fête de Noël » avec le monde entier, mais sélectionne accidentellement le document « Comptes trimestriels 2010 » de l'entreprise. Y a t-il des procédures pour éviter ce genre d'erreurs ? Est-ce vraiment la première fois que cela arrive ? Un client vous a déjà informé poliment d'une telle erreur ?

Les erreurs de configuration et les bugs ne sont pas des problèmes mineurs. En premier lieu, on peut espérer que les fournisseurs de services cloud effectuent des tests massifs avant de proposer leur produit. Ensuite, il est bien connu que les logiciels vendus par les éditeurs ne comportent jamais de bugs... Enfin, la menace liée au piratage représente sans doute la plus grande préoccupation. Les pirates sont parmi les individus les plus intelligents et les plus sournois de la planète. Rien ne les arrête. Même ceux qui n'ont pas ces qualités peuvent créer beaucoup de problèmes. Le fait d'avoir ses données sur ses propres serveurs, dans ses propres locaux, représentait une barrière physique contre le piratage. Un obstacle que certains hackers ont aussi surmonté. N'empêche que la conception de ces serveurs était en soi un élément de sécurité. Le cryptage n'est pas non plus la solution parfaite. Des données cryptées peuvent aussi être cassées. C'est le cas si le logiciel de cryptage présente lui-même des bogues.

Une éventualité très réaliste

Cela signifie que, si une entreprise met ses données dans un cloud, elle doit prendre en compte l'éventualité, très réaliste, que ces données puissent devenir publiques à un moment ou à un autre. La nature et l'importance de la fuite pourront varier. Mais, cela pourra arriver. C'est juste une question de date.  Il serait aussi intéressant d'aller rendre visite à Microsoft, à Google, et à d'autres pour voir s'ils consomment ce qu'ils vendent : est-ce que Google fait confiance à sa plate-forme Docs pour ses données d'entreprise hypersensibles ? On se pose la question et on se dit probablement que non. Il faudrait vérifier, mais la firme de Mountain View ne joue pas vraiment la carte de la transparence.

Des lois existent contre le vol de données, obligeant les entreprises à mettre en place des systèmes de sécurité appropriés. Mais quelle valeur accorder à ces protections une fois que les données sont sorties du cloud ? Et si ces données volées sont transformées en fichier Torrent, comme cela semble être la mode en ce moment, il n'y a absolument aucune chance de faire un nettoyage discret en demandant à ceux qui ont reçu ces données par erreur de les détruire ou de les restituer...

(...)

(23/12/2010 15:40:04)

Bilan Open Source 2010 : Un réalisme économique sur fond de tension

Le rapprochement de Sun avec Oracle a peut-être sonné le glas d'une certaine idée de l'Open Source. Il a surtout montré que ce modèle était entré dans une autre phase, celle de la monétisation et de la valorisation des différentes solutions. Cet effort passe par des hausses sensibles de tarifs de maintenance et de support ou par la suppression de développement sur certaines solutions, comme avec OpenSolaris par exemple. Cette tendance est inexorable nous avait laissé entendre James Whitehurst, PDG de Red Hat, « nous investissons des millions de dollars dans le développement des solutions Open Source, il est nécessaire à un moment de vivre de notre travail ». Ce dernier a présenté des résultats pour le 3ème trimestre en hausse de 58,5%.

La résistance se fait jour


Cette orientation « capitaliste » ne fait pas que des heureux, parmi les communautés de développeurs. Très récemment, la Fondation Apache a démissionné de la Java Community Process en conflit avec Oracle sur la politique de licence sur des spécifications de Java 7 et 8. Une autre démarche est la scission, comme cela a été le cas pour le projet Libre Office, qui a refusé la démarche d'Oracle sur la suite bureautique Open Source, Open Office et a décidé de lancer son propre fork. Ce fut également le cas pour Open Solaris, où des personnes ont lancé un projet dérivé Illumnos. La résistance peut aussi se traduire par des attaques judiciaires. Ainsi, la société TurboHercules qui fournit une émulation Open Source de mainframe a porté plainte auprès de la Commission européenne, pour dénoncer la position dominante d'IBM sur le marché des grands systèmes.

Un foisonnement d'innovations


Loin des différentes querelles, le monde de l'Open Source est toujours un vivier d'innovation. La plus symbolique a été Openstack, un projet de cloud ouvert porté par Rackspace et la NASA. Cette dernière met à disposition des briques technologiques auprès des développeurs pour pouvoir créer leur propre offre de cloud. En matière de développement, certains langages commencent à intéresser les grandes sociétés, c'est le cas de Ruby on Rail. Récemment Salesforce.com a racheté Heroku, spécialiste dans ce domaine. Les grands noms de l'IT tendent la main au monde Open Source, comme le fait Microsoft à travers sa fondation Codeplex rebaptisé Outercurve. Au final, le monde Open Source poursuit sa mutation avec des avancées et quelques heurts. 2011 sera une autre année.


Sur le même sujet :

L'ancien responsable de MySQL quitte le navire Sun/Oracle

La fin proche d'Open Solaris stimule les projets dérivés

Oracle sonne le glas d'Open Solaris

Apache claque la porte de la Java Community Process

OpenOffice.org se transforme en fondation et lance en Libre Office

TurboHercules attaque IBM pour pratiques déloyales

Rackspace et la NASA s'associent dans le cloud Open Source

SalesForce.com rachète Heroku et sa plateforme PaaS Ruby

La fondation Codeplex se rebaptise Outercurve

Les autres bilans 2010 de la Rédaction :

Bilan Emploi 2010 : Une reprise de l'emploi IT en demi-teinte

Bilan Tablettes 2010 : L'an 1 du phénomène

Bilan Datacenters 2010 : Consolidation et automatisation

Bilan Sécurité 2010 : Perfectionnement des attaques et concentration des acteurs

- Bilan Oracle-Sun 2010 : Adoptions et abandons

- Bilan Supercomputers 2010 : En route vers l'exaflopique (...)

(21/12/2010 14:43:23)

Plusieurs applications Oracle débarquent sur EC2 d'Amazon

Le passage à EC2 rend le logiciel PeopleSoft beaucoup plus accessible aux petites et moyennes entreprises. Il vient s'ajouter à un ensemble de déploiements entrepris récemment par Amazon pour faciliter l'adoption du Cloud par les petites entreprises. Par exemple, la semaine dernière, Amazon a annoncé la disponibilité d'un outil permettant l'importation des images de disque virtuel VMware existantes pour être exécutées ensuite dans le cloud. Pour l'instant, seul Windows Server 2008 SP2 est supporté, mais d'autres systèmes d'exploitation seront ajoutés progressivement. Les entreprises peuvent utiliser le service d'import soit comme sauvegarde d'urgence de leur infrastructure virtualisée, soit comme étape de transition vers le cloud pour limiter au maximum les difficultés et la reconfiguration.

Nul doute que l'entrée de PeopleSoft dans le cloud sera surveillée de près par Salesforce.com, qui domine actuellement le marché du CRM, un service qu'elle a toujours proposé en mode hébergé. Toutes les nouvelles offres de Cloud sont disponibles sous forme d'Images Machine Amazon (AMI) préconfigurées, et prêtes à l'emploi pour une activation immédiate, même si, à l'avenir, les clients pourront aussi créer des versions personnalisées des installations et les télécharger sur EC2. Le tarif de location horaire pour ces nouvelles images s'incrit dans la catégorie Grande instance (Large instance) de mémoire, et varie entre 50 centimes et 2 dollars en fonction des besoins du client. A noter que le compteur s'arrête lorsque les machines sont éteintes ou si leur activité est suspendue pendant la nuit. Les clients peuvent utiliser les licences Oracle pour les instances EC2 du logiciel, ce qui laisse effectivement aux administrateurs IT le choix de faire, pour le même prix, une installation sur site ou dans le cloud. Il n'est pas non plus nécessaire aux clients du service Oracle Support ou Amazon Premium Support d'acheter un support technique supplémentaire, puisque ces contrats leur permettent d'obtenir l'aide dont ils ont besoin.

Flexibilité et réduction des coûts


Les avantages de l'utilisation de PeopleSoft sur EC2 sont multiples. Par exemple, la mise en place d'une nouvelle installation est maintenant à la fois immédiate et gratuite, sans nécessiter l'achat de matériel ni même avoir des connaissances spécialisées. Une approche cloud sous-entend aussi que tout déploiement sera accessible de n'importe où dans le monde avec la garantie d'une grande fiabilité. Les coûts d'une maintenance future seront aussi considérablement réduits.

[[page]]

Toutefois, l'exécution d'applications CRM et ERP sur EC2 pose quelques questions, dans la mesure où ces applications sont habituellement installées sur les serveurs sur le site du client et que, généralement, les employés y accèdent en local. L'accès à des applications sur un réseau local est aussi beaucoup plus rapide que via un service cloud sur Internet. Cela dit, une instance de ces applications sur EC2 peut avoir un intérêt pour une entreprise très décentralisée, notamment dans le cas où la majorité de ses employés travaillent à partir de succursales ou depuis leur domicile.

Une conversion lente

Il a toujours été possible d'exécuter un logiciel PeopleSoft sur EC2, mais à titre seulement officieux, dans le cadre d'un projet « do-it-yourself » notamment. En effet, jusqu'à présent, Oracle ne recommandait l'utilisation d'EC2 que pour le développement et le test, même si Oracle Database Enterprise Linux, WebLogic, et divers d'outils de développement étaient officiellement disponibles pour cette plate-forme depuis quelques temps.

Aujourd'hui, la grande différence vient du fait qu'Oracle a certifié PeopleSoft pour une utilisation sur EC2, ouvrant ainsi l'accès à des options de support. Certes, Larry Ellison, le PDG d'Oracle, a toujours été sceptique vis à vis du cloud, le qualifiant même de phénomène de mode en 2008. Mais, cela n'a pas empêché son entreprise de commercialiser ses propres offres, comme l'Exalogic Elastic Cloud, ou même d'entreprendre un roadshow international pour vanter l'utilité du cloud computing. De même, la semaine dernière, Oracle a annoncé Cloud Office, une suite bureautique en ligne, similaire à Google Docs, mais payante.

(...)

(17/12/2010 16:23:42)

Prévisions 2011 sur le cloud (2ème partie)

Prévision  1 : Réduction des coûts et transparence tarifaire.

Si pour de nombreuses personnes, les avantages indéniables du cloud computing sont l'agilité et l'élasticité, la prestation à la demande permet aussi de proposer des prix attractifs en raison des économies d'échelle et de l'automatisation. D'autant plus que les prix des services sont publics et transparents.

La combinaison de cette évolution économique et la transparence des coûts se traduira en 2011 par une demande au sein des groupes IT  d'offrir le même niveau de clarté, et malheur au DSI qui prendra comme excuse « nous ne pouvons pas le mettre en place, car les coûts spécifiques ne sont pas identifiés » . Cette demande de transparence va certainement provoquer un malaise dans  certaines directions informatiques, mais elle constitue le fondement de la prochaine révolution en informatique, c'est-à-dire l'explosion des applications en termes de nombre et de types. Si on se réfère à la théorie économique, les applis sont les produits complémentaires de l'infrastructure et quand le prix est bon, la demande pour services est en forte augmentation. Comme le cloud implique une forte réduction de l'infrastructure, il faut s'attendre à une baisse similaire dans les applications.

Prévision 2 : Une plus grande confusion cloud public / privé.

Le débat actuel sur la meilleure voie en matière de cloud va se poursuivre et risque même de dériver. En effet, la pression va être de plus en plus forte sur les entreprises pour choisir une ou l'autre option. Ainsi, le gouvernement fédéral américain a annoncé qu'à partir de 2012, les organismes fédéraux doivent adopter des solutions cloud  « chaque fois qu'il s'agit d'un réseau fiable et sécurisé, répondant au rapport coût-efficacité. » Ce qui signifie que pour un DSI notamment américain, il vaut mieux être prêt en 2011. La phase de déploiement privilégiera pendant quelques temps les clouds privés.

Prévision  3: L'hybride, un rêve parfois difficile à atteindre.

On constate que les fournisseurs et les utilisateurs fondent de grands espoirs dans le cloud computing. Les deux se disent que l'avenir sera fondé sur l'intégration sans effort d'applications, de manière transparente, et que la migration sera automatique entre les ressources internes à l'entreprise  et les clouds externes.

Cependant, aucun prestataire de cloud, peu importe sa taille et ses compétences, ne peut vaincre certaines lois de la physique. La migration de charge de travail et (surtout) des données entre sites sont confrontées  au problème de la connectivité entre les entreprises et les fournisseurs de cloud public. De plus ce genre de migration doit s'appuyer des infrastructures informatiques complexes et des méthodes opérationnelles fiables, ce qui se traduit par des investissements et le renforcement des compétences. Il ne s'agit donc pas d'un projet trivial.

L'ensemble de ces défis  fait que dans certains cas, les projets de cloud hybride doivent être revus à la baisse et être moins ambitieux.  En 2011, la clé d'une stratégie hybride du cloud sera de positionner clairement les charges de travail en fonction du coût, des moyens mis en oeuvre et de l'interopérabilité.

[[page]]

Prévision  4: Former les développeurs

Les départements informatiques  qui vont déployer leurs premières applications en mode cloud, vont aussi s'apercevoir que l'agilité et l'élasticité ne se décrètent pas et  exigent des architectures d'applications spécifiques. Le développement des applications  doit prendre en compte les caractéristiques des infrastructures en intégrant certaines contraintes comme la redondance, l'arrêt et la suspension de session. La conception doit être élastique en accompagnant les montées en charge. Des fonctionnalités de modification de l'application à la volée  sans intervention humaine, peuvent être intégrées.

Ces évolutions vont demander une mise à niveau des compétences techniques des développeurs. Il faudra donc s'attendre dans les prochains à plusieurs articles sur les défis associés à ses compétences propres  au cloud computing.

Prévision  5: Change de mode de pensée.

Au cours de 2011, les responsables IT vont devoir faire face à 3 défis sur le plan opérationnel. Le premier correspond à la réingénierie des processus. Certaines pratiques d'exploitation en place dans la plupart des organisations restent manuelles et vont rentrer en conflit avec la vision libre-service du cloud. Certains groupes d'applications nécessiteront la disponibilité des ressources immédiates via des  fournisseurs de cloud public et les systèmes informatiques internes  devront s'adapter le plus rapidement.

Le deuxième défi pose la question de la gestion dynamique des applications au sein du cloud . Sur ce dernier, les applications sont des ressources supplémentaires qui peuvent être ouvertes ou arrêtées en fonction du temps de réponse, de la charge de travail, etc. Les décideurs informatiques  devront trouver une façon de mettre en oeuvre ces pratiques à travers des outils capables de gérer dynamiquement ces opérations. Cela implique aussi une renforcement des compétences, cité précédemment.

Le troisième défi est la prise en charge de l'évolutivité, notamment sur l'ensemble des applications que l'entreprise veut intégrer dans le cloud. La demande va exploser et les équipes opérationnelles doivent être en mesure  de dimensionner et d'anticiper les montées en charge de leurs infrastructures informatiques.

(...)

(17/12/2010 11:55:14)

Plus de RAM pour améliorer la virtualisation sur serveurs

L'étude réalisée par le fournisseur de systèmes d'administration cloud VKernel s'est intéressée à  2 500 environnements virtualisés concernant plus de 550 000 machines virtualisées, révèle que, en moyenne, les administrateurs allouent 70% de la RAM d'un serveur aux machines virtuelles (VM), laissant 30 % en réserve. Mais, une fois la mémoire saturée, il n'est plus possible d'installer de machine virtuelle sur ce serveur, quelle que soit la CPU ou la capacité de stockage restante. L'enquête en déduit que cela rend les serveurs inefficaces. L'étude, qui s'est limitée à des environnements comprenant au moins 50 machines virtuelles, indique que ses conclusions s'appliquent de la même manière à des configurations plus modestes de quelques serveurs physiques seulement. Elle établit par ailleurs le profil moyen d'une machine physique : celle-ci héberge 15,6 VM, elle est à double socket, avec des processeurs quatre coeurs, et dispose de 50 Go de mémoire et de 2 To d'espace de stockage.

Des composants haute densité toujours plus chers

Le manque de mémoire résulte essentiellement du coût que cela représente : en effet, en raison du nombre limité de connecteurs RAM, il faudrait des modules de densité beaucoup plus élevée (par centaines de Go) pour accroître la capacité d'une machine aux niveaux requis pour la virtualisation. Mais ces composants sont généralement très chers. Aussi, investir dans des coeurs de traitement plus rapides ou multiples, et moins coûteux est souvent considéré, à tort, comme le meilleur moyen pour augmenter la performance. Car la réduction de coût est le principal objectif de la virtualisation. Alors qu'auparavant, chaque système d'exploitation devait être associé à un ordinateur physique unique, la virtualisation permet de faire tourner simultanément plusieurs systèmes d'exploitation sur un seul ordinateur physique. Par exemple, une VM peut exécuter le serveur de messagerie d'une entreprise, tandis qu'une autre peut faire tourner son serveur web. Une autre encore peut fournir une passerelle VPN. L'administration de plusieurs machines virtuelles est également plus facile, comparée à une configuration similaire impliquant plusieurs machines physiques. Fait intéressant, l'étude remarque que dans des environnements où le nombre de machines physiques est moins élevé, celles-ci hébergent plus de machines virtuelles, ce qui fait dire que les administrateurs sont assez souples quant à la capacité disponible. Des environnements avec 24 hôtes physiques ou plus, hébergent en moyenne 11 machines virtuelles par machine physique, alors que ceux dont le nombre se situe à 10 machines physiques, et moins, hébergent jusqu'à 20 machines virtuelles, soit le double. En d'autres termes, les entreprises avec moins de serveurs ont tendance à exploiter au maximum leurs capacités.

Un marché toujours fluctuant

Certaines conclusions du rapport pourraient être obsolètes, dans la mesure où le prix de la mémoire physique (DRAM) a chuté récemment, ce qui favorise les environnements de virtualisation à haute performance. En novembre, DRAMeXchange, un spécialiste du marché de la mémoire, a constaté que l'amélioration des rendements résultants des nouvelles technologies, combinée à une baisse de la demande de la part des consommateurs, a fait fortement baisser le prix de la DRAM. Il note ainsi qu'un module de 2 Go de DDR3 dont le prix tournait autour de 46,50 dollars US en début d'année, peut être acheté pour seulement 20 dollars US aujourd'hui. La mémoire ECC utilisait sur les serveurs est toutefois 3 fois plus cher. En outre, un récent rapport fait par la Deutsche Bank sur cette industrie indique que les prix de la mémoire ne sont pas susceptibles d'augmenter à nouveau avant la seconde moitié de 2011. Celui-ci dit même que les prix risquent de descendre encore plus bas à court terme. Autrement dit, il n'y a jamais eu de meilleur moment pour investir et rendre son environnement de virtualisation plus performant. Mais il faut garder à l'esprit que le marché de la DRAM a toujours eu tendance à osciller comme un yo-yo. Les usines brûlent toujours quant les prix sont à la baisse. L'année prochaine, le contexte pourrait être différent et plus difficile.

Illustration : Barrette mémoire ECC Kingston, crédit D.R.

(...)

(16/12/2010 17:25:08)

Amazon et VMware déplacent les VM vers le cloud

VM Import est adaptée à un certain nombre de scénarios de migration et de récupération en cas de désastre, selon un post du blog d'AWS. Cette fonctionnalité s'appuie sur VMware VMDK (Virtual Machine Disk Format) capable de gérer notamment les images de Windows Server 2008 SP2.

Pour importer des images, les services informatiques utiliseront des API d'Amazon EC2 (Elastic Compute Cloud) pour pointer vers une image de machine virtuelle dans leur environnement existant. Ensuite, ils préciseront le montant de la capacité de travail dont ils ont besoin et où ils veulent exécuter l'image sur la plateforme de cloud d'Amazon. VM Import transfèrera automatiquement le fichier image et créera une instance dans le cloud, souligne l'éditeur.

Pour déplacer la production, la machine virtuelle devra être arrêtée avant de générer l'image VMDK, selon une FAQ sur le site d'AWS. Par contre, la VM ne peut pas être mis simplement en pause. De plus, les disques et fichiers image chiffrés ne sont pas pris en charge. La durée pour importer une machine virtuelle dépend de la taille de l'image disque et du débit de la connexion réseau. Par exemple, l'importation d'une image de 10 Go prend environ deux heures à l'importation sur une connexion haut débit à 10Mbit/s. Le processus de conversion est gratuite. Mais les utilisateurs doivent payer pour la bande passante nécessaire pour le téléchargement ainsi que pour la capacité de stockage et de calcul, qui sont facturés au tarif habituel d'Amazon.

Des évolutions déjà anticipées

Amazon prévoit de rendre  Import VM compatible avec d'autres systèmes d'exploitation (différentes versions de Windows ou Linux) et d'autres plates-formes de virtualisation (comme Hyper V ou Xen). L'éditeur prévoit aussi d'intégrer, dans les prochains mois, son service via un plugin au sein de la console de gestion de VMware vSphere. Les gens qui souhaitent tester cette solution en bêta privée doivent envoyer un mail à toec2-vm-import-plugin-preview@amazon.com. Les entreprises qui souhaitent importer des instances Windows sur Amazon EC2 vers leur environnement virtualisé VMware pourront le faire via vCenter Converter.

(...)

< Les 10 documents précédentsLes 10 documents suivants >