Flux RSS

Cloud computing

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

904 documents trouvés, affichage des résultats 881 à 890.

< Les 10 documents précédentsLes 10 documents suivants >


(19/02/2009 15:05:07)

Selon Intel, d'ici à 2012, un serveur sur quatre sera installé dans un méga-datacenter

Intel affirme que, d'ici à 2012, entre 20% et 25% des serveurs se trouveront dans des "méga-datacenters". Aujourd'hui, toujours selon Intel, ce type de sites ne représente que 10% du marché. Pour Intel, ces méga-datacenters sont ceux de grands acteurs comme Google, Amazon, Microsoft, les opérateurs telcos/Internet et les fournisseurs de services web 2.0 comme SalesForce. Sous l'effet de la crise, tous devraient connaître une forte augmentation de demandes d'externalisation ou de sous-traitance de la part d'entreprises en quête d'optimisation des coûts. Ces prédictions d'Intel préparent le terrain pour l'annonce imminente de ses premiers processeurs Nehalem pour serveur. Fondés sur la même architecture que le Core i7, ils constituent une rupture technologique qu'il convient de justifier en ces temps de vaches maigres. Capacité de traitement unique comme pour un processeur multicoeur Aujourd'hui, les datacenters qui déploient des environnements virtualisés - premier pas vers une architecture en cloud - optent le plus souvent pour des serveurs rack biprocesseurs milieu de gamme plutôt que pour des machines dernier cri. Les prix de ces bipro bénéficient d'une forte concurrence entre les constructeurs. Dans l'espoir de relancer le marché, Intel fait reposer sa stratégie "cloud computing" sur ses Nehalem. Le fondeur promet des plateformes optimisées pour s'insérer dans des datacenters où les serveurs seraient conçus pour être gérés en "pool", vus comme une capacité de traitement unique comme l'est un processeur multicoeur aujourd'hui. Il fait miroiter un ensemble de serveurs capable de réallouer dynamiquement leurs ressources pour optimiser la répartition de la charge de traitement. Willowbrook, carte-mère moins gourmande et prête pour la virtualisation Intel a aussi levé le voile sur "Willowbrook", une carte-mère conçue par ses soins qui ramène de 110-115 watts la consommation en veille d'un serveur Nehalem à moins de 85 watts. Promise pour la fin mars, elle sera dotée de fonctions dédiées à la virtualisation, tout particulièrement pour les entrées-sorties. Intel met en avant Virtual Machine Device Queues (VMDq), qui décharge l'hyperviseur dans ce domaine et souligne le rôle que pourrait jouer le bus PCI Express (PCIe) dans la virtualisation des périphériques d'entrées-sorties. Dans un datacenter, dont la taille serait telle que les coûts de personnel s'effaceraient devant l'ampleur de ceux des équipements, Intel estime que 75% des coûts de fonctionnement proviennent du coût de l'infrastructure (pour 50%) et de la consommation électrique (pour 25%). Pour un tel site dont les ressources serveur sont uniformisées autour de processeurs Nehalem, Intel identifie plusieurs sources d'économie au niveau des infrastructures. 57% proviennent d'une optimisation du code, autrement dit, d'une gestion fine des ressources en fonction de la charge, 23% sont dégagées par une amélioration de la consommation, 17% de serveurs aux cartes-mères optimisées et 3% de la conception du datacenter. (...)

(16/02/2009 17:32:03)

L'université de Berkeley donne sa vision du cloud

Onze chercheurs, membres de l'université de Berkeley (Californie), ont publié un article de fond sur le cloud computing. Membres du RAD Lab (Reliable Adaptive Distributed Systems Laboratory, subventionné par des sociétés comme Google, Microsoft et Sun), ce sont de fervents adeptes de cette évolution inexorable de la structure informatique de notre société de l'information. Ils ont établi une liste de onze obstacles à surmonter pour parvenir à une mutation sans encombre. Ils conseillent aux utilisateurs de ne pas avoir un, mais plusieurs fournisseurs. Ils enjoignent d'ailleurs ces derniers à s'accorder sur des API communes. Ils insistent aussi sur l'impérieuse nécessité de crypter les données. Leurs conseils abondent dans le sens de l'OCC (Open Cloud Consortium), une association née elle aussi dans le monde universitaire américain qui prône l'ouverture des approches en cloud. (...)

(16/02/2009 17:28:07)

IBM et Amazon unis dans le cloud

IBM rallie l'EC2 (Elastic Could Computing) d'Amazon. D'ici quelques mois, bases de données et middlewares de Big Blue seront proposés sur la plateforme la plus sophistiquée d'AWS (Amazon Web Services), acronyme sous lequel sont regroupées les offres d'infrastructures en ligne du libraire numérique. DB2, Informix Dynamic Server, le portail et sMash de WebSphere ainsi que Lotus Web Content Management, viennent rejoindre des logiciels d'Oracle (11g et Fusion), de Sun (OpenSolaris et MySQL), de Red Hat (JBoss), de Microsoft (Windows Server et SQL Server) ainsi que les logiciels en ligne de SalesForce. IBM indique toutefois qu'il compte utiliser son mode de facturation fondé sur des PVU (Process Value Unit). Comme le montre ce schéma sommaire, l'échelle commencera à 50 PVU (l'équivalent d'un serveur X64) pour atteindre 400 PVU. Les clients d'IBM doivent savoir que les licences logicielles dont ils disposent seront valables sur EC2. L'annonce de ce partenariat avec IBM finit de crédibiliser Amazon dans le monde du Cloud. Son offre, une des plus élaborées et des plus abouties, comprend aussi des prestations de stockage (S3 pour Simple Storage Service) et de livraison de contenus (CDS pour Content Delivery Service). Pour IBM, cet accord vient compléter Blue Cloud, sa propre approche d'hébergement d'informatique en cloud qu'il a lancée officiellement la semaine dernière. (...)

(13/02/2009 18:01:19)

Techdays'09 : Azure, Seven, Multitouch, les technologies de Microsoft mises à nu

Troisième édition et un succès qui ne se dément pas pour la grand-messe française de Microsoft, où développeurs, administrateurs systèmes et décideurs IT se sont pressés pour approfondir leurs connaissances et obtenir des informations sur les futurs produits. Windows Azure, Windows Seven, Visual Studio 2010 étaient ainsi au coeur des interrogations, les 10, 11 et 12 février derniers au Palais des Congrès de Paris. LeMondeInformatique.fr a assisté aux trois jours de l'événement ; notre dossier vous propose un compte-rendu pratique et sans langue de bois. (...)

(12/02/2009 16:28:30)

Techdays'09 : Microsoft explique Azure en détail

C'est l'inconvénient avec les concepts à la mode : lorsqu'une technologie s'en réclame, tout ou presque peut être dit pour la définir, les notions de 'cloud' et de 'Saas' (Software as a service) se mélangeant allègrement. C'est ce qui est arrivé avec Azure, le « Windows dans les nuages » de Microsoft, dévoilé en octobre dernier et actuellement dans sa phase 'preview'. Si bien que les développeurs, mais aussi des décideurs IT et des administrateurs systèmes se sont pressés dans les sessions consacrées à Azure lors des Techdays, 3 jours de conférences gratuites organisées par Microsoft France, et auxquelles se sont inscrites près de 16 000 personnes, indique l'éditeur. L'une des sessions sur Azure, animée par deux architectes de Microsoft France, Stève Sfartz et Régis Mauger, reprenait ainsi tranquillement les fondamentaux de ce qu'est, ou n'est pas, Azure. Un distinguo à opérer entre les services Azure et la plateforme Azure D'abord, il faut distinguer la plateforme Azure des services de la plateforme Azure. La première est « un système d'exploitation dans le nuage », qu'il convient de voir comme « une troisième plateforme de déploiement, après la plateforme client (desktop/mobile) et la plateforme serveur ». Stève Sfartz a d'ailleurs insisté sur cette continuité: « C'est un continuum, vous restez dans un environnement de développement connu. » A côté de ce Windows Azure - l'offre de 'cloud computing en tant que telle -, figurent des services complémentaires, apportés des applicatifs Microsoft hébergés : la manipulation de données avec des services SQL Server, par exemple, ou le transactionnel avec des services Biztalk. Le fait d'avoir proposé en même temps ces services applicatifs en ligne - qui s'apparentent au Saas - a largement contribué à la confusion initiale. Le déploiement dans Azure repose sur le téléchargement de deux fichiers La plateforme Azure - sans ces services - est donc un environnement de déploiement d'applications créées avec Visual Studio, l'atelier de développement de Microsoft, dûment secondé du SDK (kit de développement) Azure. Une fois que le développeur a créé son compte dans Azure, la publication des programmes dans ce Windows hébergé est simplissime : l'outil crée deux fichiers, un package de l'application et un fichier de configuration XML, qu'il suffit de télécharger depuis la page d'accueil de son compte Azure. Nul besoin de se préoccuper, lors de la création du programme, du fait que cela tournera sur une machine virtuelle, ou des capacités de montée en charge. « La gestion des ressources est transparente pour vous », explique Régis Mauger. Tout est géré par ce que Microsoft appelle « la fabrique ». C'est elle qui alloue les capacités (en fonction du nombre d'instances déterminé dans le fichier de configuration), gère l'équilibrage de charge, la récupération en cas d'incident, la réplication de données... « Votre code sera capable de supporter la charge, quelle qu'elle soit » [[page]] La version de prévisualisation d'Azure permet aujourd'hui de monter jusqu'à deux instances ; dans la version finale, l'éditeur du logiciel déterminera librement le nombre d'instances dont il pensera avoir besoin - sachant que cela pourra évoluer à la hausse ou à la baisse. « Votre code sera capable de supporter la charge, quelle qu'elle soit », assure-t-on chez Microsoft. La seule contrainte sera la tarification. Celle-ci n'est pas encore finalisée, mais on sait déjà que comme toute offre de cloud, le coût grimpera en fonction des ressources utilisées. D'où l'intérêt, soulignent les architectes, de tout de même bien optimiser le code, pour qu'il consomme le moins de ressources possibles. L'application tournant dans Azure dispose de sa propre URL (avec une terminaison en cloudapp.net, qui peut être masquée à l'aide d'une redirection), et peut communiquer avec d'autres services accessibles en ligne, grâce aux protocoles Soap ou Rest. Des tables, des queues et des Blobs dans le « cloud storage » d'Azure Les données que l'application doit manipuler sont stockées dans le « cloud storage » d'Azure, qui peut prendre trois formes : des tables, des files d'attente de messages et des blobs (Binary large objects, containers pour stocker de gros fichiers binaires, comme des photos ou des vidéos). Chacun de ces formats dispose d'une URL distincte, permettant au développeur d'y accéder librement. Quelques outils, dont un est fourni en guise d'exemple dans le SDK d'Azure, donnent la possibilité de manipuler plus facilement ces données (dont le total est limité à 50 Go dans la 'preview'). Des traitements sur ces données peuvent être effectués de façon asynchrone, dans le nuage, « l'équivalent d'un traitement batch », précise Stève Sfartz. La grosse difficulté aujourd'hui concerne le débogage des applications. Certes, Azure dispose d'un mode 'préproduction', pour y faire tourner une application avant de la mettre en production, mais on ne peut y déboguer un programme. Il faut donc faire le maximum de tests en local, sachant que le SDK reproduit en local la « fabrique ». Dans ce cas, les données sont stockées dans une base SQL Express, mais il est possible de les charger dans Azure, et d'utiliser un outil tiers comme Fiddler pour examiner les flux, afin d'identifier les points de l'application posant problème. Autre limitation imposée aux développeurs : dans la mesure où Azure s'appuie sur la version 7 du serveur Web IIS de Microsoft, le travail de conception doit s'effectuer sur Vista ou Seven, XP n'étant pas compatible avec IIS 7. Au final, les choses sont donc plutôt claires, mais cela pourrait se complexifier à l'avenir, avec le support de langages natifs, et la possibilité de déployer dans Azure ses propres machines virtuelles. (...)

(10/02/2009 18:00:33)

IBM donne une division à Blue Cloud

Le cloud computing d'IBM qu'il nomme Blue Cloud prend corps au travers d'une nouvelle division. Annoncé en novembre 2007, il atteint sa phase opérationnelle en ce début d'année. L'infrastructure, qui repose, pour l'instant (*), sur neuf datacenters, les Cloud Labs, dont un site européen installé à Dublin depuis mars 2008, propose des ressources aux entreprises qui aspirent à équilibrer leurs charges de traitement entre leur propre cloud et celui d'IBM. IBM baptise ce concept "hybrid cloud". Un accès "transparent" est garanti par un maillage réseau qui reposera sur des équipements réseau de Juniper Networks et des composants logiciels ajoutés à Tivoli. L'objectif est de permettre la répartition des tâches afin d'optimiser les ressources et la qualité de services. L'annonce d'IBM mélange allègrement les produits disponibles et ceux qui le seront seulement ultérieurement. A terme, la logithèque de Blue Cloud s'organisera autour de la console Service Management Center for Cloud Computing. Elle repose sur Tivoli Provisionning Manager 7.1 et Tivoli Service Automation Manager. L'ensemble automatise le déploiement et l'administration d'une infrastructure en cloud computing. IBM revendique cinq clients dont Elizabeth Arden [[page]] Avec IBM Rational AppScan 7.8, les clients pourront s'assurer de la sécurité et de la conformité aux contraintes légales des services web mis en cloud. Rational AppScan OnDemand assure quant à lui la surveillance de ces services. Tivoli Storage as a Service est une prestation qui assure le suivi de la sauvegarde et sa facturation au volume. Enfin, IBM Design and implementation for cloud test environments doit faire gagner 20% du temps nécessaire aux utilisateurs pour déployer une plateforme cloud de test sur leur propre infrastructure. IBM revendique avoir rallié cinq clients à son offre Blue Cloud dont le plus connu est le groupe cosmétique Elizabeth Arden. Ce train d'annonces intervient au moment ou IBM crée sa division dédiée à Blue Cloud. Il place à sa tête Erich Clementi avec le titre de General Manager for Enterprise Initiatives. Cet italien, qui a rejoint IBM en 1984, prend en charge l'avenir d'une division qui se positionne sur un marché en très forte croissance. IDC, qui estimait le marché du cloud computing à 16 Md$ l'an dernier, le voit atteindre 42 Md$ en 2012. (*) En septembre 2008, IBM annonçait son projet de porter à treize le nombre de ses Blue Labs en en ouvrant quatre autres dans des pays émergents : Corée du Sud, Vietnam, Inde et Brésil. (...)

(06/02/2009 11:08:44)

LMI invite ses lecteurs pour un petit-déjeuner

Afin de toujours mieux satisfaire ses lecteurs, LeMondeInformatique.fr vous invite une nouvelle fois à rencontrer la rédaction lors d'un petit-déjeuner informel, afin d'échanger sur vos besoins et votre appréciation sur le contenu et la présentation de votre site d'information. Le café et les croissants vous seront servis le 26 février, de 8h30 à 10h, dans nos locaux du 6/8 rue Jean Jaurès à Puteaux, à 5 minutes à pied du métro Esplanade de la Défense. En dehors de cette rencontre avec la rédaction, parce que vous participez aussi au monde de l'IT, nous vous invitons à vous exprimer au travers des commentaires d'articles sur le Forum, sur nos blogs Green IT et Ingénierie logicielle, ou encore sur le blog Experts. Pour plus de renseignements et pour vous inscrire, écrivez-nous : redac_weblmi@it-news-info.com (...)

(03/02/2009 12:00:58)

Etude : le cloud computing reste une énigme pour les PME anglo-saxonnes

Les PME anglo-saxonnes appréhendent encore mal ce que recouvre le cloud computing. C'est ce qu'indique une enquête menée auprès de 1 500 petites et moyennes entreprises britanniques et américaines entre mi-octobre et mi-novembre par le cabinet d'études Vanson Bourne, pour le compte de l'hébergeur Rackspace Hosting. Ce dernier s'inquiète de constater que 57% des PME britanniques et 58% des PME américaines ne connaissent tout simplement pas le terme cloud computing qui désigne l'accès à une infrastructure et à des services informatiques hébergés. Selon les résultats de l'enquête, cette expression relève de l'énigme et, à ce stade, semble semer la confusion plus qu'elle ne promeut le concept. La désignation 'cloud computing' est pourtant de plus en plus fréquemment employée par les plus grands fournisseurs d'infrastructures. Parmi ses principaux zélateurs, on trouve ainsi IBM, Microsoft, Google et Amazon, ou encore Sun, HP, Dell, Intel, EMC, VMware, Citrix et Yahoo. Des définitions variées pour un même concept Les réponses des PME sondées sont néanmoins modulées. 43% des entreprises britanniques interrogées définissent le cloud comme un ensemble de serveurs distants auxquels on accède par Internet. C'est également cette définition qui recueille le plus de suffrages aux Etats-Unis, avec 29% des réponses. 31% des Britanniques pensent que l'hébergement au sein d'un cloud correspond à des applications accessibles sur Internet, 14% pensent qu'il s'agit de virtualisation et 8% de stockage en ligne. Les réponses sont équivalentes aux Etats-Unis. Toutefois, 27% des sondés britanniques ne savent pas comment ils vont utiliser le cloud parallèlement à leurs autres applications IT. Il en va de même pour un tiers des PME américaines. (...)

< Les 10 documents précédentsLes 10 documents suivants >