Flux RSS

Cloud computing

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

904 documents trouvés, affichage des résultats 831 à 840.

< Les 10 documents précédentsLes 10 documents suivants >


(10/12/2009 16:56:11)

Microsoft, Cisco, IBM et d'autres créent un club du cloud

Les membres fondateurs de ce club regroupent des sociétés qui proposent des plateformes cloud ainsi que les entreprises qui utilisent ces services. Deux organismes de l'industrie, Distributed Management Task Force et IT Service Management Forum, sont aussi impliqués. Le TM Forum, une association professionnelle qui se consacre à l'amélioration des processus commerciaux entre les entreprises de télécommunications et leurs fournisseurs est à l'origine de cette initiative. « Une des questions importantes que le Conseil s'attachera à résoudre est la frilosité actuelle des entreprises », a déclaré Gary Bruce, un chercheur chez BT. Le conseil a d'ailleurs déjà décidé de travailler sur des solutions normalisées autour de différentes couches de cloud, y compris la virtualisation, la gestion et les couches de contrôle, de sorte que les entreprises puissent plus facilement porter leurs services d'un fournisseur de cloud à un autre, explique-t-il. En outre, les entreprises sont très préoccupées par les questions de sécurité, de localisation des données et de fiabilité. « Le Conseil étudiera les problèmes et déterminera la meilleure manière de les traiter", précise-t-il. Le conseil travaillera également sur les problèmes de performance et de temps de latence. Curieusement, un des grands absents de ce club est Amazon, portant l'un des chefs de file dans le domaine des services cloud. Contactée par la rédaction, une porte-parole d'Amazon a refusé, pour l'instant, de nous expliquer les raisons de cette absence. Il est bon de préciser qu'Amazon tente également d'éliminer les obstacles au développement du cloud. Mardi dernier, la société a par exemple mis en ligne un outil permettant de comparer les coûts d'utilisation de ses services cloud EC2, l'hébergement du projet en interne ou en utilisant une installation partagée. Amazon a également publié un livre blanc qui décrit les coûts directs et indirects dans la gestion d'un centre de données. IBM et Microsoft n'a pas répondu aux demandes de commentaires sur leur implication dans ce club du cloud. Le TM Forum, qui organise une conférence sur le Web le 16 décembre prochain, dévoilera à cette occasion plus de détails sur ce club. (...)

(04/12/2009 15:34:01)

Constellation, le projet de BI collaborative de SAP

Sous le nom de Constellation, SAP prépare une application collaborative d'aide à la décision, qui se présenterait comme une « salle d'opérations » virtuelle ('war room'), cellule de veille où l'on partage des informations pour engager des actions dans la foulée. Cette application associera un outil accessible dans le cloud, depuis un navigateur Internet, et des composants installés en interne dans l'entreprise. C'est ce qu'a récemment expliqué David Meyer, vice président responsable des technologies émergentes pour SAP BusinessObjects, lors d'une présentation sur le Web à certains membres très impliqués de la communauté SAP. L'outil qui doit fonctionner dans le cloud est actuellement en test bêta privé sous le nom de code 12Sprints. On peut s'enregistrer sur le site qui lui est consacré pour le découvrir.

En mai dernier, à l'occasion de la conférence utilisateurs Sapphire d'Orlando, le PDG de SAP, Léo Apotheker, avait lui-même évoqué, le développement de Constellation, en décrivant une application combinant des fonctions de business intelligence et des outils de type Web 2.0. On en sait maintenant un peu plus. David Meyer a montré comment des utilisateurs pouvaient collaborer en temps réel autour d'un problème donné en s'appuyant sur différents outils d'aide à la décision et de gestion de projets. « Il ne s'agit pas seulement d'un espace de discussion, explique-t-on sur le site 12Sprints.com. On rassemble les personnes concernées par un dossier, on leur présente les données correspondantes et l'on choisit les actions à mener avec l'aide d'outils interactifs intégrés. »

Lors de sa présentation, David Meyer a par exemple déroulé un scénario utilisant la méthodologie Swot (strengths, weaknesses, opportunities, threats) consistant à définir une stratégie en analysant conjointement les forces, faiblesses, opportunités et menaces associées à une situation.

Streamworks de SAP

Idéalement, de 5 à 30 personnes peuvent intervenir dans l'un de ces groupes de travail. Mais l'éditeur allemand a prévu de fournir les moyens de publier des activités vers des wikis, ou vers d'autres plateformes comme SharePoint afin de toucher une audience plus large, a précisé David Meyer. Quant aux composants de Constellation situés hors du cloud, qui en sont à un stade de développement moins avancé, ils permettront aux utilisateurs de puiser de façon sécurisée et à partir d'un seul point, dans les différents entrepôts de données et contenus non structurés de l'entreprise.

Une ouverture prévue vers Google Wave
[[page]]
Un cadre ouvert mais contrôlé

Parmi les applications possibles, David Meyer a cité notamment les processus de décisions d'achat qui se règlent aujourd'hui par téléphone, avec une déperdition d'informations et de connaissance. Sur le plan de la sécurité, Constellation offre un cadre ouvert mais contrôlé. Les utilisateurs pourront travailler comme ils l'entendent, mais un contrôle sera opéré sur la façon dont les choses se passent pour corriger certains points, un risque de fuite de données par exemple. « On pourra empêcher certaines actions », a précisé David Meyer. La tarification de Constellation est toujours à l'étude. Néanmoins, on sait déjà que l'offre devrait comporter trois volets. Il y aura une option gratuite, qui donnera accès à un nombre limité d'activités, et deux versions payantes. Des portions de code seront fournies pour connecter les logiciels BI de BusinessObjects à Constellation. En complément, les utilisateurs de SAP ERP depuis la version 4.6c pourront afficher des contenus vers Constellation dans le cadre de réunions virtuelles.

Une boutique d'applications et une intégration avec Google Wave


David Meyer a également indiqué que SAP prévoyait de créer pour cette plateforme une boutique d'applications sur laquelle les développeurs pourront mettre en vente les méthodes ou les intégrations spécifiques qu'ils auront mises au point. Constellation peut s'adapter à de nombreuses technologies. « Vous pouvez développer dans n'importe quel langage, a affirmé David Meyer. Un peu comme pour un Facebook. » SAP planche aussi sur l'intégration de Constellation à des plateformes de collaboration comme Google Wave. « Il est évident que nous avons besoin de travailler ensemble, a confirmé David Meyer. Il sera possible de partager des contenus entre nos plateformes. » En octobre dernier, SAP Research avait déjà montré une application exploitant Google Wave, baptisée Gravity. Créée avec l'équipe de développement de SAP Netweaver, celle-ci permet de développer des modèles de processus dans le cadre d'une fusion entre deux entreprises. Dès janvier prochain, SAP en dira davantage sur Constellation. L'outil destiné au cloud sera disponible au cours du premier semestre. La partie hors cloud devrait entrer en version bêta en avril et être livrée courant 2010. (...)

(03/12/2009 16:46:23)

Intel dévoile une super puce 48 coeurs qui soulève de nombreuses interrogations

Jusqu'à 48 coeurs dans un processeur gravé en 45 nm, c'est la performance technologique dévoilée par les chercheurs d'Intel. Cette démonstration préfigure les serveurs de demain qui pourront être de type « single-chip cloud computer ». Avec un oeil sur les datacenters et un autre sur le cloud, Intel envisage de produire des processeurs multicoeurs d'un genre nouveau au sein d'un programme baptisé « terascale ». « Avec des puces de ce type, vous pouvez imaginer un cloud reposant sur un data center très performant et consommant beaucoup moins d'énergie que les systèmes actuels, ce qui signifie économiser des ressources quant à la surface occupée et aux frais de fonctionnement (refroidissement et consommation électrique) », explique Justin Rattner, responsable des laboratoires de recherche et CTO d'Intel. Un point très important quand on sait que 100% de l'énergie consommée par un datacenter est convertie en chaleur et qu'il est ensuite nécessaire de réguler la température (22° recommandés aujourd'hui) avec des systèmes de refroidissement par air ou par eau, également énergivore. Justin Rattner envisage également de produire des puces de ce type pour des usages très grand public comme les calculateurs automobiles pour contrôler des systèmes électroniques comme l'injection, l'ABS ou le déclenchement des airbags. Des performances de l'ordre du téraflop Deux ans après avoir exhibé une puce expérimentale 80 coeurs, qui n'était pas totalement fonctionnelle, Intel franchit un grand pas avec ce prototype de processeur 48 coeurs. Certains problèmes comme la communication entre les coeurs ont pu être améliorés et les ingénieurs ont exploré de nouvelles architectures pour concevoir des cores design plus efficaces. Aujourd'hui, la puce 48 coeurs offre des performances de l'ordre du téraflop, mais avec la consommation électrique d'un processeur quad core (de 25 à 125 W). Ce processeur intègre 4 contrôleurs mémoire DDR3 (64 Go max) et un réseau de communication offrant une bande passante de 256 Go/s. Pour fonctionner efficacement, les systèmes d'exploitation et les applications pourront utiliser certains coeurs en priorité et répartir d'autres tâches sur des coeurs annexes. Comme certains processeurs déjà sur le marché, cette puce multicoeurs peut adapter la tension et la fréquence d'horloge des unités de calcul. Une condition sine qua non pour régler le niveau de performances en fonction des besoins et utiliser le minimum d'énergie nécessaire. [[page]] À l'occasion de cette annonce, Intel explique qu'il prévoit de distribuer une centaine de puces 48 coeurs expérimentales à des centres de recherches universitaires travaillant sur les applications et les modèles de programmation multicoeurs. Le professeur Tim Roscoe, du département d'informatique de l'École Polytechnique de Zurich, a déjà indiqué être très intéressé par le « single-chip cloud computer ». « Dans le cadre du projet Barrelfish, nous concevons en effet des architectures de système d'exploitation pour les futurs systèmes multicoeurs. Le contrôleur mémoire de cette puce et le système de transmission des informations sont donc parfaits pour nous. C'est le véhicule idéal pour tester et valider nos idées». Plusieurs questions sans réponses Plus mesuré, Dan Olds, analyste chez Gabriel Consulting, indique que cette puce expérimentale est une étape importante pour le développement de nouvelle génération de processeurs, mais qu'Intel devrait livrer plus de détails sur cette technologie. "Les puces multicoeurs sont devenues la norme avec des processeurs bi et quadri coeurs utilisés dans presque tous les systèmes. Le nombre de coeurs va certainement augmenter avec le temps, mais cela arrivera à petits pas - de deux à quatre coeurs, de quatre à six, puis de huit et dix dans les prochaines années. Cette puce 48 cores est un objectif important qui place le marché dans une certaine perspective. " Dan Olds poursuit en indiquant qu'Intel devrait expliquer ce que signifie vraiment 48 coeurs 'pleinement fonctionnels'. « Nous avons besoin de plus d'informations de la part d'Intel pour comprendre exactement comment un tel bond en avant a pu être possible, ajoute-t-il. Par exemple, peut-elle gérer le jeu d'instructions x64 standard ? C'est un point très important pour déterminer si un logiciel existant sera capable de tourner sur cette plateforme ou s'il sera nécessaire de le porter. Avec un volume de seulement 100 unités, c'est plus un projet scientifique qu'un prototype réel. Il s'agit d'un projet scientifique important, qui pourrait apporter beaucoup à l'industrie, mais cela reste un projet scientifique. " (...)

(03/12/2009 11:20:55)

Selon le Gartner, le cloud privé gardera longtemps la faveur des entreprises

Le Gartner scrute l'avenir du cloud computing jusqu'en 2012. La dépense des entreprises se portera davantage vers les solutions de cloud privé (interne ou externe) que de cloud public. Selon Tom Bittman, vice-président chez Gartner : « Dans la réalité, les entreprises vont privilégier une organisation informatique qui gère et qui garde les ressources informatiques en interne. Mais ces ressources pourront être traitées en cloud computing et les prestataires extérieures auront toujours leur rôle ». Dans les années à venir, selon le Gartner, le cloud computing sera de plus en plus mixte, privé et public, avec des arbitrages fréquents entre les deux formules. Ce modèle hybride va prévaloir. Pour de nombreuses grandes entreprises, les services de cloud privé seront nécessaires pendant de nombreuses années, voire des décennies, en attendant l'émergence d'un cloud public mature. Les entreprises entrent ainsi dans un long processus. « Les investissements en cloud ne tiennent pas seulement aux changements technologiques, ils enclenchent aussi le processus, culturel et commercial de changement», a déclaré M. Bittman. "Faire ces changements le plus tôt possible aidera les entreprises à mieux prendre les bonnes décisions. Chaque service passé en cloud aura une feuille de route différente pour l'avenir, certains devraient être axés sur le renforcement de l'intégration, la personnalisation et la différenciation pour l'entreprise", a déclaré M. Bittman. "D'autres devraient être axés sur l'indépendance, la personnalisation des interfaces simples, la normalisation et seront des candidats potentiels, pour du cloud public. » Les DSI devront avoir des équipes spécialisées pour orienter les ressources en cloud. De ce fait, les PME, fautes de services dédiés auront plus de mal à passer au cloud computing ou devront faire appel à des sociétés très spécialisées qui offriront une vraie responsabilité et des tarifs attractifs. (...)

(18/11/2009 14:46:03)

Avec son cloud Azure, Microsoft lance une place de marché et des services associés

Lors de sa conférence développeur PDC 2009, Microsoft a officiellement annoncé la date de disponibilité de sa plateforme cloud Windows Azure (voir tarifs en ligne): ce sera donc le 1er janvier 2010. Avec cette solution, l'éditeur complète sa stratégie S+S, Software + Services, et arrive sur un marché en plein essor : la fourniture de prestations en ligne (location de ressources, d'espace de stockage, de logiciels et d'autres services), facturées en fonction de l'usage à destination des entreprises comme du grand public. Solution ambitieuse, Azure vient concurrencer les offres d'IBM, de Sun ou d'Amazon.com qui avaient cru, bien avant Redmond, au Cloud Computing. C'est Ray Ozzie, architecte logiciel en chef de Microsoft, qui a présenté Windows Azure et SQL Azure lors de son discours d'ouverture. « Nous entrons dans une nouvelle ère de solutions auxquelles les utilisateurs accèdent déjà via leur PC, leurs téléphones mobiles et le web. Ces ressources reposent déjà sur des data center que nous désignons par les termes de « cloud privé » et de « cloud public ». Dans son allocution, Ray Ozzie illustrait cette nouvelle façon d'utiliser les ressources informatiques avec l'analogie des « trois écrans et du nuage (cloud) », à savoir diffuser des logiciels et des services sur des PC, des terminaux mobiles et des télévisions. Cette vision de "trois écrans et d'un nuage» permettra aux développeurs de créer des applications qui peuvent être réutilisées et livrées via un cloud (Windows Azure), sur un serveur (Windows Server) ou sur le bureau de l'utilisateur (Windows 7), selon ce qui sera le plus commode ou offrira les meilleures performances, explique Ray Ozzie. Une place de marché maison pour accompagner Azure La plateforme Azure est accompagnée d'une place de marché en ligne baptisée PinPoint, permettant aux partenaires de proposer et de vendre leurs applications. Solution concurrente de Salesforce.com, une market place disponible depuis 4 ans, PinPoint proposera plus de 7000 logiciels et pourra compter sur un service d'organisation des données, connu sous le nom de code « Dallas », reposant entièrement sur les solutions Windows et SQL Azure. Grâce à « Dallas », les développeurs et les utilisateurs pourront accéder à des données de référence depuis n'importe quelle plateforme, pour construire leurs propres services et mashups (combinaison de plusieurs sources d'informations). Les ressources actuellement disponibles dans « Dallas » sont de type gratuites ou payantes et incluent notamment celles de Navteq, WaveMarket, CitySearch, First American, RiskMetrics Group ou infoUSA.com. Signalons toutefois que tout comme Azure, « Dallas » est, pour l'instant, uniquement disponible en version CTP limitée (Community Technology Preview). « Windows Azure va finir sa période de tests, puis entrer en production le 1er janvier, mais les clients ne seront facturés que début février » a précisé Ray Ozzie. Techniquement Azure sera hébergée dans trois paires de data center à Chicago et San Antonio pour l'Amérique du Nord, à Dublin et Amsterdam pour l'Europe, et à Singapour et Hong Kong pour l'Asie. Microsoft ne précise toutefois pas encore si les clients pourront régionaliser leurs applications. Les start-ups à l'honneur Pour présenter les premiers services développés avec Windows Azure, Microsoft a intelligemment mis en avant ses traditionnels détracteurs : les start-ups de la Silicon Valley et les officines du gouvernement fédéral américain. Automattic, baptisé à San Francisco, utilise, par exemple, Azure pour héberger certains composants de sa populaire plateforme de blogs Wordpress, a expliqué le fondateur de la société, Matt Mullenweg. Autre start-up de San Francisco, Seesmic, propose une version de son service pour Twitter reposant sur Azure et Silverlight. La NASA a publié des images 3D réalisées par le véhicule robot martien et proposées gratuitement au grand public, grâce au service de gestion des données « Dallas ». Le premier DSI fédéral américain, Vivek Kundra, a indiqué que le gouvernement envisage d'accélérer la publication de données à destination du grand public. Il a comparé le potentiel « explosif» de cette solution en termes de services et d'applications à la décision du gouvernement américain d'autoriser l'utilisation des données GPS pour un usage civil. Associer le cloud Azure et les infrastructures classiques Windows Pour démontrer que la plateforme Azure peut s'adapter à tous les besoins, Bob Muglia, responsable de l'activité Server and Tools chez Microsoft, a cité l'outil de recherche web maison, Bing, qui fonctionne sur plus de 100 000 serveurs. Bob Muglia a également annoncé le projet Sydney, qui permettra aux entreprises de connecter leurs propres serveurs à des services Azure. Enfin, Bob Muglia a présenté la bêta AppFabric, un serveur d'applications pour Windows Server et Azure. Avec AppFabric, les développeurs pourront déployer et gérer plus facilement des applications sur des serveurs locaux et sur des services Azure. Cet outil combine les fonctionnalités du serveur d'applications Dublin et la technologie de cache du programme Velocity. Les versions bêta de Sidney et d'AppFabric seront disponibles courant 2010. (...)

(06/11/2009 14:14:44)

IBM livre des services en ligne de développement pour les clouds publics et privés

Clouds publics ou privés, pour le développement ou le déploiement, pour des applications à forte audience ou au contraire absolument pas critiques... le marché du cloud reste encore évanescent. IBM avance néanmoins comme beaucoup d'autres ses pions, cette fois sur le terrain du développement, avec l'annonce de la bêta de deux services en ligne : Rational Software Delivery Services for Cloud Computing et Smart Business Development and Test on the IBM Cloud. Le deuxième service est assez classique : une plateforme de stockage et d'exécution d'applications. Plus original, le premier service combine les outils de gestion du cycle de vie de la gamme Rational, ainsi bien sûr que l'ensemble de bonnes pratiques élaboré par l'éditeur, notamment en matière de méthodes agiles et de test. IBM explique que cela permet tout à la fois d'intégrer les différentes technologies utilisées en interne, et de bénéficier des avantages du cloud, comme la possibilité de monter en très peu de temps un environnement de développement et de test (bien plus rapidement que s'il fallait passer par les services internes de réservation de ressources). La plateforme Smart Business Development and Test on the IBM Cloud devrait être facturée classiquement, sur un modèle de paiement à l'usage. L'offre Rational pourrait être associée à des jetons d'utilisation, ce qui permettrait de déplacer ces jetons au fur et à mesure des projets en fonction des publics concernés (architectes, développeurs, intégrateurs, etc.). Les versions finalisées des deux services sont attendues pour le premier trimestre 2010. (...)

(04/11/2009 16:40:12)

Cisco et EMC alliés pour proposer des packages d'infrastructure de cloud

Cisco et EMC (avec sa filiale VMware) annoncent un partenariat autour du développement et de la vente de packages d'infrastructure pour le cloud computing. Celui-ci prend d'une part la forme d'une alliance appelée Virtual Computing Environment pour développer les nouveaux produits, d'autre part d'une filiale commune aux trois entreprises, du nom d'Acadia, pour la formation et l'accompagnement des clients et partenaires pour l'installation et l'utilisation des produits. Cisco et EMC, actionnaires majoritaires de cette dernière structure, seront accompagnés de VMware et Intel, actionnaires minoritaires. Les quatre entreprises doteront bientôt Acadia d'un CEO indépendant et d'environ 130 employés pour commencer. Cette structure va devoir accélérer les ventes et le déploiement des produits, puis d'en superviser la mise en production avant de transférer les projets aux clients ou aux partenaires. Le montant de l'investissement de chacun des partenaires dans Acadia n'a pas été dévoilé. Selon le cabinet McKinsey, le marché ciblé représenterait plus de 350 Md$ par an. Et pour Cisco, EMC et Intel, les dépenses en technologies de virtualisation pour le datacenter ou de cloud privé devraient représenter près de 85 Md$ dès 2015. Trois déclinaisons pour gérer entre 300 et 6000 machines virtuelles Les produits qui seront développés dans le cadre de cette alliance, les infrastructures Vblock Infrastructure, regrouperont dans des packages pré-intégrés, testés et validés, les offres de virtualisation, de gestion du réseau, d'infrastructure serveurs, de stockage, de sécurité et d'administration de systèmes des trois fournisseurs. Pour le haut de gamme, Vblock 2 saura gérer entre 3 000 et 6 000 machines virtuelles pour les grands comptes et les fournisseurs de service, avec l'UCS (Unified Computing System), le switch logiciel Nexus 1000v et les switches de SAN MDS de Cisco, le système de stockage Symmetrix V-Max d'EMC et la plateforme de virtualisation vSphere de VMware. Vblock 1, lui, s'adressera aux configurations moyennes de 800 à 3 000 machines virtuelles, avec une configuration produits semblables à celle de Vblock2 à ceci près que les systèmes de stockage milieu de gamme CLARiiON d'EMC remplacent son Symmetrix V-Max. Enfin, en entrée de gamme (300 à 800 machines virtuelles), Vblock 0 offira l'UCS et le Nexus 1000v de Cicso, l'Unified Storage d'EMC et l'environnement vSphere de VMware. Il s'adresse aux PME, au petits datacenters, au test et au développement pour les clients et les partenaires. D'autres Vblock devraient venir compléter cette liste pour répondre par exemple à certains besoins métiers. Toutes les déclinaisons de Vblock seront administrées par le gestionnaire d'infrastructure unifiée Ionix d'EMC et sécurisées par les produits RSA security d'EMC. Les Vblock seront compatibles avec le standard de sécurité de gestion de l'information ISO 27001. Un dispositif commun de partenaires intégrateurs, SSII et distributeurs Les packages devraient tous être disponibles ce trimestre chez les intégrateurs systèmes et chez les distributeurs des trois acteurs. Par ailleurs, les composants de chaque package peuvent évidemment être achetés directement chez EMC, Cisco et VMware ou dans leurs réseaux de partenaires respectifs. EMC, Cisco et VMware ont aussi investi dans un service avant-vente dédié, des services professionnels et un point d'entrée unique pour le support, constitués de personnel issu des trois entreprises. Acadia devrait commencer à installer les offres chez les clients au premier trimestre 2010. L'alliance Virtual Computing Environment compte déjà six partenaires intégrateurs : Accenture, Capgemini, CSC, Lockheed Martin, Tata Consulting Services et Wipro. Les partenaires service sont Savvis, Orange, SunGard et Terremark. Enfin, le réseau de distribution compte Bell Canada, CDW, Presidio, World Wide Technology, Dimension Data et Verizon Services, parmi d'autres. Certains analystes pensent que cette collaboration pourrait perturber les relations de chacune de ces trois entreprises avec les plus grands fournisseurs de datacenter. VMware travaille par exemple déjà avec IBM, HP, Dell, CA, NetApp et Sun. Le CEO de VMware, Paul Maritz, a minimisé cet impact : "Nous restons fidèles à nos engagements et nous ne nions la technologie de personne." (...)

(29/10/2009 18:11:56)

Markess évalue l'état du marché français du cloud computing

Dans sa dernière étude(*), le cabinet Markess International apporte plusieurs éléments de compréhension sur le marché du cloud computing pour la France. On décrit en général le cloud avec trois composantes : le Saas (Software as a service), le Paas (Platform as a service), l'Iaas (Infrastructure as a service), donc les applications, les plate-formes et les infrastructures en mode hébergé. Ces trois éléments étant reliés, insiste Markess, au marché de l'hébergement (soit l'hébergement en co-location, soit l'infogérance, à l'exclusion de la part de l'hébergement qui va dans les contrats d'infogérance). L'hébergement représente 880 millions d'euros en 2009 en France et le cloud (Saas + Paas + Iaas) 1,5 milliard d'euros -le Saas représentant la majeure partie de cette somme -. Dans un sens plus large encore, incluant l'hébergement, le marché français du cloud computing représente 2,3 milliards (**). Ce marché connaît plusieurs évolutions. Markess souligne par exemple l'intérêt croissant pour le cloud privé. Réticentes à confier leurs données à l'extérieur, les entreprises peuvent se laisser tenter par cette formule qui concerne l'hébergement à l'intérieur d'un même groupe industriel ou dans un cadre mutualisé, par exemple entre collectivités locales. C'est le cloud privé interne. Il comporte une variante : le cloud privé externe. Dans ce cas, l'hébergement se fait dans un centre dédié aux seules données de l'entreprise ou d'un groupe d'entreprise. Reste un troisième cas de figure, celui du cloud public, où les ressources sont mutualisées chez un prestataire externe. Autre évolution, celle concernant les secteurs externalisés. Les acteurs du marché et les DSI interviewés citent de plus en plus le réseau comme le prochain secteur à virtualiser. D'autres sont déjà largement concernés : stockage, poste de travail, plateformes applicatives, services web. La crise économique peut-elle précipiter la demande ? Actuellement, sur les 150 interviewés, 7% sont intéressés pour passer au cloud de type « privé » interne » (53% d'ici 2011), 8% à une formule externe mais dédiée (44% d'ici 2011), 5% pour la solution externe totale (36% d'ici 2011). Parmi les raisons de ce recours au « cloud » viennent en tête : l'optimisation des coûts d'exploitation (30% des réponses), la volonté de mutualiser les ressources (26%), la réduction des risques d'interruption du business (20%), une meilleure évolutivité (19%), l'externalisation de la sauvegarde, la maintenance et la réactivité (18%). Enfin, Markess s'intéresse aux acteurs de ce marché, et les répartit dans sept secteurs différents. Cinq sont des grands classiques de l'informatique : les spécialistes de la co-location (Equinix, Interxion, Telehouse, Telecity Group), les opérateurs télécoms et hébergeurs (OBS, Colt, Easynet, SFR-Jet Multimédia), les hébergeurs à valeur ajoutée (Agarik, Claranet etc), les infogéreurs (Cap, HP-EDS, Atos, IBM), les éditeurs (Microsoft). Deux secteurs font figure de nouveaux entrants : les spécialistes du Saas (Salesforce, Google), et les nouveaux venus (Amazon, Rackspace, Rightscale). Markess a enregistré beaucoup de citations, parmi ses interviewés, sur ces deux nouveaux secteurs, preuve que même Google et Amazon sont pris en compte dans les DSI. Markess avait également demandé : quels sont les acteurs les plus avancés en matière de « cloud » ? Amazon, Google Salesforce, et Rackspace sont largement cités. De quoi inquiéter des acteurs mieux installés. Le marché semble de toute façon très ouvert : les 150 interviewés ont cité 60 acteurs différents. (*) Le cabinet Markess International a mené une enquête en ligne entre les mois de juin et de septembre dernier auprès de 150 responsables d'entreprises, venus : à 69% des DSI, à 24% des DG, 7% autres. Ils appartiennent aux secteurs : IT et télécoms, 29%, secteur public, 19%, banque et assurances, 15%, industrie, 13%, distribution 6%, autres 18%. Un gros tiers de ces entreprises, 37% ont plus de 2 000 salariés, 39% moins de 250, le reste, 24%, est entre 250 et 2 000 salariés. (**) Au plan mondial, IDC évalue le marché du cloud à 17,4 milliards de dollars en 2009 et prévoit 44,2 milliards de dollars pour 2013. Le cabinet segmente ce marché du cloud en cinq secteurs : les applications qui passeraient de 8,5 milliards de dollars en 2009 à 16,8 en 2013, les infrastructures applicatives de 3,5 à 8,8, les serveurs de 2,1 à 6,6, les développements de 1,7 à 5,8, le stockage de 1,6 à 6,2. (...)

(13/10/2009 15:26:56)

La SNIA travaille sur l'interopérabilité du stockage en cloud

La Storage Networking Industry Association (SNIA) annonce la création de la Cloud Storage Initiative (CSI). Ce groupe va en particulier travailler sur la spécification d'une API (Application programming interface), la Cloud Data Management Interface (CDMI). La SNIA en propose déjà une description sommaire sur son site. Il s'agit d'une interface fonctionnelle que les applications utiliseront pour créer, récupérer, mettre à jour et supprimer des données dans un cloud. Un module client sera chargé d'identifier les capacités du stockage dans le cloud et d'utiliser l'interface pour gérer des containers ainsi que les informations que ceux-ci hébergent. Les outils d'administration pourront utiliser cette interface pour gérer ces mêmes containers, les comptes utilisateurs associés, la sécurité d'accès ainsi que les informations de contrôle et de facturation, même pour du stockage accessible via d'autres protocoles. Pour CDMI, la CSI s'appuiera sur les développements techniques réalisés par le groupe de travail Cloud storage de la SNIA qui compte plus de 140 membres. Elle les aidera à porter les spécifications et développements techniques devant les organismes internationaux de standardisation. Elle va par exemple publier un livre blanc conjoint avec l'Open Grid Forum (OGF) focalisé sur le stockage dans le cloud. Des informations sur le stockage en cloud public ou privé "Une partie du défi du cloud se situe dans la localisation des données, dans la façon dont elles seront gérées une fois dans le cloud et dans la façon de les récupérer dans le format dans lequel on souhaite les récupérer," explique Mark Carlson, membre du conseil technique de la SNIA. Selon lui, la CSI va se concentrer sur la diffusion d'information sur la technologie destinée à la conception de services publics de cloud comme le S3 d'Amazon, et des architectures privées de cloud au sein de datacenters. Le rôle de la CSI consistera plus globalement à documenter le principe du stockage dans un environnement de cloud computing. Elle va ainsi rédiger un lexique de la terminologie du cloud, publier des cas pratiques, des livres blancs et des spécifications techniques et définir des modèles d'implémentation de référence pour des architectures de grilles de stockage. La CSI coordonnera et publiera aussi du matériel éducatif pour les fournisseurs de stockage en cloud et de communautés utilisatrices. (...)

(06/10/2009 11:13:35)

Adobe Max : Adobe propose de déployer LiveCycle et ColdFusion dans le Cloud

Il paraît que c'est une demande des clients, et que les programmes bêta ont eu un retour très positif : Adobe étoffe donc son portefeuille d'applications accessibles en ligne, en l'occurrence sur le cloud d'Amazon. L'éditeur a annoncé à l'occasion de sa conférence utilisateurs Adobe Max à Los Angeles la sortie de ColdFusion 9 et de LiveCycle Enterprise Suite 2, qui tous deux s'accompagnent d'options de déploiement dans le Cloud. A l'instar de ce que propose Google avec AppEngine ou Microsoft avec Azure, Adobe va donc donner la possibilité de déployer des applications ColdFusion en ligne, en s'appuyant sur EC2 (Elastic compute cloud, le service d'hébergement d'Amazon) et S3 (Simple storage service, le service de stockage d'Amazon). Il s'agit pour l'heure d'une bêta privée, sans date de disponibilité fixée. Pour LiveCycle ES2, Adobe promet une disponibilité « début 2010 ». Cette offre de gestion des processus documentaires se prête plutôt bien à un usage en ligne - dès lors que les données contenues dans les documents ne sont pas trop sensibles, ou ne doivent pas subir de restrictions géographiques. Adobe précise toutefois que les entreprises pourront recourir au système de zones géographiques mis en place par Amazon, et qu'il sera également possible de négocier la mise en place de l'offre sur un autre cloud. Adobe a sélectionné Amazon pour son infrastructure, mais dit avoir développé un système de supervision lui permettant d'assurer la qualité du service, ainsi que la facturation, à l'usage comme il se doit. La tarification n'est pas encore annoncée, mais a priori, cela devrait donner l'opportunité à d'autres organisations que des grands comptes de mettre en place des processus documentaires. Dans le cas des deux applications serveurs, il existe bien sûr la possibilité de réaliser les déploiements au sein de clouds privés, sachant que derrière cette appellation marketing nouvelle se cachent des datacenters de serveurs virtualisés. (...)

< Les 10 documents précédentsLes 10 documents suivants >