Flux RSS
Cloud computing

904 documents trouvés, affichage des résultats 891 à 900.
< Les 10 documents précédents | Les 10 documents suivants > |
(29/01/2009 08:43:27)
Zimory crée la première place de marché du cloud
Après plus de six mois de tests techniques et plus d'un an d'existence, Zimory, qui se présente comme la première place de marché consacrée à la commercialisation de ressources de cloud, aborde sa phase promotionnelle. Né d'un essaimage des Deutsche Telekom Laboratories, Zimory, basé à Berlin, assure que la vente et l'achat de ressources de traitement par son entremise sont d'une facilité déconcertante. Son Zimory Public Cloud aurait déjà été testé par 150 sociétés et une douzaine de datacenters seraient sur le point de mettre en commun leurs ressources. Cette offre repose sur le savoir-faire de Zimory en matière d'administration de cloud qui prend la forme de ses Enterprise Cloud Tools. Deux clients les utilisent pour leur cloud interne : la Deutsche Post et T-Systems, la filiale service informatique de Deutsche Telekom. Un intérmédiaire entre les fournisseurs et leurs prospects Ce sont ces outils que Zimory met gratuitement à disposition pour permettre à chacun, fournisseur de ressources comme demandeur, d'interagir sur la place de marché. La société précise qu'elle n'est pas concurrente de fournisseurs de cloud computing comme Amazon ou IBM. Elle se place en intermédiaire entre eux et leurs prospects. Zimory se rémunère sur la facturation, la gestion des relations contractuelles, la sécurisation des opérations et la gestion des machines virtuelles. Pour l'instant, l'offre de la jeune entreprise allemande repose sur des appliances standards sous avec Linux et Windows. Elle reconnait déjà les hyperviseurs de de Citrix (Xen), de VMware et de RedHat (KVM) et bientôt ceux de Parallels et de Microsoft le seront prochainement. Zimory vient d'ailleurs de signer un accord avec l'éditeur d'Hyper-V pour que celui-ci intègre ses outils. Au dessus, différentes piles applicatives sont proposées telle Lamp (Linux, Apache, MySQL, PHP). Zimory reste en revanche très flou sur ses prix. Ceux-ci dépendent d'une multitude de facteurs qui vont de la qualité de service demandé à la localisation géographique du datacenter hébergeur. (...)
(20/01/2009 12:53:20)Lotusphere : LotusLive prend ses quartiers sur le cloud d'IBM
Hier à Orlando (Floride), l'édition 2009 de Lotusphere, grand rendez-vous annuel des utilisateurs des logiciels de collaboration Lotus d'IBM, s'est ouverte sur l'annonce de LotusLive. Cette suite est l'aboutissement du projet Bluehouse, en version bêta depuis octobre dernier. LotusLive propose, en ligne, une suite de services intégrés, hébergés sur les datacenters d'IBM : messagerie, outils de collaboration, de conférence Web et de réseau social. Reposant sur des standards ouverts, l'environnement applicatif a été conçu pour faciliter l'intégration avec des applications externes, hébergées sur un autre cloud, ou installées sur les serveurs des entreprises. Une mise en relation qu'IBM désigne sous l'appellation « Click to Cloud » et qu'il illustre concrètement à la faveur de partenariats noués avec le réseau social professionnel LinkedIn, avec Skype ou encore avec Salesforce.com. LinkedIn intégrera son site avec LotusLive, Lotus Notes et Lotus Connections. Skype permettra tout simplement de lancer un appel téléphonique sur IP ou une conférence Web à partir du carnet de contacts géré dans LotusLive. Quant à la plateforme de gestion de la relation client (CRM) de Salesforce, elle pourra à l'inverse exploiter les services de collaboration de LotusLive à partir de ses fichiers de clients et prospects. Un partenariat avec SAP Un partenariat avec l'éditeur SAP, concrétisé sous la forme du produit Alloy (ex-nom de code : Atlantic), livré en mars prochain, va aussi permettre d'accéder aux données de l'ERP SAP, ainsi qu'à des outils de reporting ou d'analyse, ou de s'insérer dans un workflow, sans sortir de l'environnement Notes. A la suite de son acquisition de Lotus en 1995, IBM a été l'un des principaux fournisseurs mondiaux de logiciels de communication et de collaboration à installer dans l'entreprise, avant que le développement des acteurs du Web ne vienne simplifier l'usage et baisser considérablement le coût de ces fonctions de partage, les technologies Web 2.0 les complétant en outre d'outils de blog et wiki, fils RSS... Ce qui a conduit IBM à créer en 2007 des solutions comme Lotus Connections et à s'atteler à son tour à la mise à disposition de ses logiciels en mode hébergé, sous forme de services. (...)
(15/01/2009 16:11:10)Plus de la moitié des développeurs prévoient de travailler sur des projets Saas
Signe, s'il en était encore besoin, que le logiciel 'on demand' a le vent en poupe : plus de la moitié des développeurs (52%) prévoient de travailler sur des projets d'applications Saas (software as a service) en 2009. C'est la principale conclusion d'une étude réalisée par Evans Data auprès de 1300 développeurs dans le monde entier. Pour l'institut d'études, ce constat est la preuve que les entreprises prennent conscience des avantages du Saas, notamment son coût réduit et son déploiement plus simple que pour le modèle traditionnel. Actuellement, c'est en Amérique du Nord qu'on compte la plus grande proportion de développeurs travaillant sur des projets Saas (30%). Ils sont moins nombreux dans la zone EMEA mais Evans Data estime que 53% d'entre eux franchiront le pas cette année. Un taux qui devrait être encore supérieur en Asie. Par ailleurs, Evans Data note que les projets 'cloud' restent moins nombreux que ceux consacrés au Saas, avec moins de 10% des développeurs travaillant sur ce sujet. Ce nombre devrait toutefois progresser en 2009 : plus du quart des personnes interrogées prévoient des développements 'cloud' cette année et près de la moitié des développeurs asiatiques envisagent de travailler autour de ce thème. (...)
(14/01/2009 07:07:33)Gartner : en 2009, les DSI devront faire mieux avec autant
C'est plutôt une bonne surprise, pour Gartner : les budgets informatiques ne diminueront pas en 2009. Le cabinet d'études a publié son enquête annuelle « CIO Agenda Survey », réalisée auprès d'un peu plus de 1500 entreprises et administrations, représentant un montant de dépenses IT annuelles de plus de 138 Md$. Il en ressort qu'après plusieurs années de croissance continue (1,3% en 2004, 2,5% en 2005, 2,7% en 2006, 3,0% en 2007 et 3,3% en 2008), les dépenses en 2009 seront étales, à + 0,16%. Le cabinet s'attendait-il à bien pire ? « Oui, répond Dave Aron, vice-président de Gartner. Nous prévoyions un tableau bien plus négatif, avec davantage de coupes, et de projets d'externalisation. » Ces derniers permettent en effet de transformer la structure des coûts, une opportunité bienvenue en ces temps de crise économique. « Or, il n'y a pas de signaux en ce sens. » De même, si Gartner conseille aux DSI de saisir l'opportunité de remettre à plat leur organisation, et de « couper les branches mortes », il ne devrait pas y avoir de plans de licenciements, du moins pas en grand nombre. « Rien ne le laisse présager, et les départements informatiques sont déjà bien maigres. Il faut noter en outre que très peu d'entreprises subiront une baisse de leur budget IT de plus de 10%. En Europe, par exemple, cela ne concernera que 8% des entreprises. » Gartner aux DSI : « travaillez plus intelligemment » Reste que les DSI devront tout de même se serrer la ceinture, alors que la pression venant du métier n'a aucune raison de diminuer, au contraire. Pour Gartner, l'informatique pourra toujours apporter de la valeur à condition d'être plus efficace. En d'autres termes, « il ne s'agit pas de faire plus avec moins, mais de travailler plus intelligemment ». Dave Aron explique que « les DSI vont devoir prendre au sérieux la notion de stratégie, et établir des priorités en fonction de ce que l'IT peut apporter au business ». L'analyste s'attend à très peu d'investissements dans les nouvelles technologies. « Un peu de Web 2.0, de virtualisation, de collaboratif. » Gartner conseille plutôt de faire porter le gros des efforts sur « une utilisation plus stratégique des technologies déjà en place, comme le décisionnel, dont la plupart des projets jusqu'à présent ont échoué à vraiment délivrer de la valeur ». Gartner conseille un pilotage des projets par le risque [[page]] Le conseil de Gartner pour utiliser plus efficacement des technologies déjà installées ? « Etablir des métriques strictes pour mesurer la valeur en termes métier, explique Dave Aron. C'est ce que font les DSI les plus avancés. » Ils doivent aussi sortir de leur sphère d'influence, et parler en termes métier avec le directeur financier et le directeur général. C'est ainsi qu'avec les outils de gouvernance appropriés, ils pourront piloter les projets en termes de risques. « Les DSI doivent se demander : quels risques y a-t-il si j'annule tel projet ? Quels risques y a-t-il si j'investis dans tel projet ? » SOA, virtualisation et cloud apportent une flexibilité bienvenue Pour Dave Aron, si les DSI mettent en place cette stratégie, tous les projets à long terme ne sont pas condamnés. On pense par exemple aux SOA (architectures orientées services), qui impliquent à la fois de la transformation du SI et une démarche transversale. « Les SOA sont toujours sur le radar des DSI, d'autant plus qu'elles n'impliquent pas nécessairement un projet d'un seul tenant, cela peut être fait de façon très modulaire. » En outre, remarque Dave Aron, « les SOA contiennent une promesse de flexibilité, d'agilité, tout comme la virtualisation et le 'cloud computing', ce qui rend ces technologies particulièrement intéressantes en ce moment ». Parmi les autres priorités des DSI listées par l'enquête de Gartner, on retrouve, principalement en France, d'ailleurs, la volonté d'améliorer la qualité du service rendu par l'IT. Ce qui dénote peut-être un léger manque de maturité sur les solutions orientées Itil (référentiel de bonnes pratiques), observe Dave Aron. La bonne nouvelle est que les DSI français devraient être un peu plus gâtés que leurs homologues étrangers. Gartner, qui a interviewé 16 entreprises françaises (totalisant 4 Md$ de dépenses informatiques), arrive à la conclusion qu'en France les budgets devraient connaître une légère augmentation, de 1,26% en moyenne. (...)
(12/01/2009 10:57:45)L'Open Cloud Consortium veut promouvoir un cloud computing ouvert
En matière de cloud computing, la technique suit le marketing. Un groupe d'universités américaines* vient de créer l'Open Cloud Consortium (OCC), une association qui a vocation à améliorer les performances des technologies impliquées dans le cloud computing, à y promouvoir l'utilisation des logiciels libres et l'interopérabilité entre chaque implantation. "Notre but est qu'il ne soit pas nécessaire de réécrire les applications si l'on change de fournisseur" explique Robert Grossman, président de l'OCC et directeur du Laboratory for Advanced Computing (LAC) et du National Center for Data Mining (NCDM) à l'université de l'Illinois.
Mise à disposition d'un banc de tests
Robert Grossman annonce cinq axes de travail : - le développement de standards pour le cloud computing, d'interfaces et de frameworks pour l'interopérabilité entre les différentes implantations, - le support des logiciels Open Source pour le cloud computing, - le développement de tests de performances (benchmarks) pour le cloud computing, - la mise à disposition d'un banc de tests, l'Open Cloud Testbed, se composant de quatre sites reliés entre eux par une connexion Ethernet à 10 Gigabit, - et le soutien d'ateliers et d'événements sur le sujet.
Seul Cisco soutient l'OCC pour l'instant
L'OCC travaille avec les logiciels open source suivants : Hadoop, développé par le consortium Apache, et Thrift, originaire de Facebook. Thrift est un framework qui permet de développer des services à partir de plusieurs langages (C++, Java, Python, PHP et Ruby). L'OCC a aussi mis au point Sector qui utilise le protocole UDP et non TCP. Couplé avec Sphere, développé par le National Center for Data Mining, il délivre des performances deux fois supérieures à celle d'Hadoop qui repose sur TCP. Pour l'instant, seul Cisco, parmi les grands acteurs de l'industrie, apporte son soutien à l'OCC. Les autres (IBM, Microsoft, Oracle Amazon, Google...) ont, pour une raison ou pour une autre, moins d'enthousiasme à vouloir favoriser une standardisation du cloud computing qui profite surtout aux utilisateurs. Il reste à espérer que l'OCC parvienne à ses fins. (...)
CES 2009 : De Seven à Server 2008 R2, Steve Ballmer dévoile le futur de Windows
Convergence. C'était le maître-mot de Steve Ballmer lors de la conférence qu'il a tenue hier, 7 janvier, au CES de Las Vegas. Alors que Microsoft n'a souvent juré que par l'environnement du PC, l'éditeur martèle qu'il « n'est désormais plus simplement question du poste de travail », mais de trois écrans interconnectés : le PC, le smartphone et la télévision. Et Steve Ballmer de poursuivre : « Microsoft transforme Windows de système d'exploitation pour PC en plateforme connectée, une démarche à la frontière des mondes du PC, du téléphone, de la télévision et du cloud. » La transformation de Windows s'illustre en premier lieu à travers Seven, le successeur de Vista. Nombreux sont les utilisateurs à avoir placé beaucoup d'espoir dans l'OS à venir après avoir essuyé tant de déception avec Vista. Ils pourront se faire une première idée dès demain, 9 janvier, avec la mise en ligne de la bêta publique du système d'exploitation. Sur scène, Steve Ballmer a insisté sur la facilité de créer un réseau domestique avec Seven et de partager des vidéos et des musiques entre les différents appareils ainsi connectés, du PC à la télévision. Deux univers en voie de rapprochement, selon Steve Balmer : « Au cours des prochaines années, nous aurons des TV plus sophistiquées et plus connectées, et nous assisterons à la chute de la frontière entre le PC et la télévision. » Pour plus de détails sur Seven, consultez notre article consacré au lancement de la pré-version de l'OS. Windows Server 2008 R2 en version bêta L'autre nouveauté dans l'univers Windows s'éloigne de la notion de convergence chère à Steve Ballmer, puisqu'il s'agit de Windows Server 2008 R2, dont la bêta vient d'être mise en ligne. L'OS destiné aux serveurs a été développé en parallèle de Seven, une proximité qui s'illustre dans la sortie simultanée des deux pré-versions. Ces OS sont en outre conçus pour donner le meilleur d'eux-mêmes lorsqu'ils fonctionnent ensemble. Ainsi, la brique DirectAccess de Server 2008 R2 simplifie les accès distants des postes clients utilisant Seven, en permettant à leurs utilisateurs de se connecter à leur environnement de travail de façon transparente, sans qu'il soit nécessaire de passer par un VPN. Au chapitre des innovations figure également la virtualisation des applications, qui autorise l'accès à des applications et des données à partir d'un ordinateur distant. L'utilisateur retrouve sur son bureau des icônes traditionnelles d'applications qui s'exécuteront de façon virtualisées, sans qu'il ne se rende compte que les applications ne sont pas sur son PC. Le boot depuis un disque virtuel [[page]] On le voit, la virtualisation est au coeur des préoccupations de Microsoft avec cette deuxième mouture de Windows Server 2008, qui intègre la v2 de Hyper-V. Les administrateurs pourront profiter du support de Live Migration pour migrer à chaud des machines virtuelles d'une machine physique vers une autre, et apprécieront certainement le démarrage d'une machine depuis un disque virtuel qui héberge l'environnement de travail complet. Avec la disparition de la distinction entre les disques physiques et les VHD (Virtual hard disk), Microsoft estime que l'administration de système tendra à se réduire à la seule administration d'une bibliothèque de disques virtuels. Live Essentials sur les PC Dell Enfin, entre l'annonce de la sortie de Halo 3 ou de Netflix (service de vidéo à la demande) sur Windows Mobile, Steve Ballmer a consacré quelques mots à la mise en ligne de Windows Live Essentials, un pack d'outils regroupant notamment Mail, Messenger, Writer et PhotoGallery. Si certaines de ces applications étaient jusqu'alors intégrées à Windows, Microsoft entend désormais laisser le choix à l'utilisateur de les installer. Ceux qui achèteront prochainement un PC des gammes grand public et PME de Dell n'auront cependant pas ce choix. Steve Ballmer a en effet annoncé un partenariat entre Microsoft et le constructeur texan pour que soient pré-installés Live Search et Live Essentials sur les PC de ce dernier. (...)
(08/01/2009 10:46:16)Sun acquière Q-layer et sa gestion d'infrastructure 'cloud'
Sun Microsystems achète Q-layer, un éditeur belge de solution d'automatisation de gestion d'infrastructure destinée au cloud computing. Les détails de l'acquisition n'ont pas été dévoilés, mais l'opération donne quelques éclaircissements sur la direction que prend Sun dans la grande compétition du 'cloud' qui s'annonce passionnante pour 2009. Q-Layer, fondée en 2005, propose en fait un ensemble d'outils pour bâtir, administrer et faire évoluer de façon simple et transparente des datacenters, isolés ou distribués, internes ou externes. L'éditeur belge a entre autres développé la plateforme NephOS, couche d'abstraction du datacenter, et VPDC (Virtual private datacenter), portail qui permet de créer de façon simple et graphique son infrastructure 'cloud'. Il ne s'agit pas de bâtir un cloud, mais de simplifier la mise en oeuvre de ressources, physiques ou virtuelles, distribuées. NephOS s'installe au dessus des infrastructures physiques ou virtuelles qui fonctionnent avec les OS et les hyperviseurs de Vmware, Xen, Sun et Microsoft. La plateforme s'appuie sur trois composants principaux. D'abord, un langage unique permet aux administrateurs de créer des scripts portables sur les environnements Linux, Windows et Solaris. Ensuite, un outil de modélisation propose de représenter, visualiser et gérer la topologie du datacenter. Enfin et surtout, le Data Center Abstraction Layer (DAL), comme son nom le laisse entendre, constitue le coeur de la couche d'abstraction. C'est ce système qui crée la logique d'automatisation et d'orchestration du datacenter. Il évite à l'administrateur de devoir agir directement sur des ressources physiques ou virtuelles identifiées de l'infrastructure. En lieu et place, il propose des fonctions de haut niveau dans le système, comme 'démarrage', 'arrêt' ou 'backup', qui déclencheront un enchaînement automatisé d'actions vers les ressources concernées. Ces dernières peuvent être par exemple des hyperviseurs, des VLANs ou des systèmes de gestion de fichiers. Une couche d'abstraction de l'administration physique du datacenter Le DAL gère en permanence la réservation des ressources ('provisioning') du datacenter de façon cohérente et en considérant les serveurs avec leur équipement complet : connectivité, bande passante et stockage, mais aussi les services. L'orchestration des ressources tient également compte des éléments nécessaires à l'intégration et à la configuration du réseau, de la sécurité, des sauvegardes et des niveaux d'accès des utilisateurs et des administrateurs. Le portail VPDC, quant à lui, s'exécute au dessus de NephOS pour que les utilisateurs finals définissent, déploient et fassent évoluer leur propre datacenter virtuel en fonction des besoins du moment, par de simples drag-and-drop d'icônes représentant les ressources (serveurs, stockage, réseau et applications). VPDC propose en quelque sorte aux entreprises de bâtir et de gérer leur infrastructure de cloud en libre service. Plutôt que d'acquérir des racks ou des serveurs physiques, l'utilisateur achète un ensemble intégrant puissance CPU, mémoire, capacité de stockage et capacité réseau. A partir de ces éléments, il bâtit son datacenter virtuel sans toucher aux machines physiques. Reste à trouver les applications pour ce type d'environnements... Même si, a priori, le SDK (kit de développement logiciel) de Q-Layer promet le déploiement de ce que l'éditeur appelle fort opportunément des CloudApps. (...)
(06/01/2009 17:16:01)Bob Muglia admis dans le cercle des présidents de Microsoft
Après 20 ans de bons et loyaux services, Bob Muglia, 48 ans, a été admis dans le cercle très fermé des "présidents" de Microsoft. Au quotidien, il reste à la tête de la division "Serveurs et outils" qui regroupe Windows Server, Visual Studio, SQL Server, les outils de sécurité Forefront, BizTalk Server. Cette division a généré un CA de 13 Md$ sur l'exercice fiscal 2008 clos en juin dernier, en hausse de 16%, et un résultat opérationnel de 4,6 Md$ (+27%). La division de Bob Muglia a généré 22% du CA total du groupe et presque autant de son résultat opérationnel. Pour le nouveau président, c'est un retour en grâce. Il avait en effet été mis sur la touche à la suite de l'échec du projet de services en ligne Hailstrom en 2001. Son nouveau titre lui est décerné alors qu'il a en charge le nouveau projet de cloud computing maison, Azure Services. Bob est le quatrième président du groupe aux côtés de Robbie Bach (division périphérique et loisirs), de Stephen Elop (division business) et du Français Jean-Philippe Courtois, en charge de Microsoft International. (...)
(02/01/2009 16:01:29)2008-2009 : bilan et perspectives
Netbooks qui relancent un marché de la micro morose, prise de conscience écologico-économique avec le Green IT, débuts du 'cloud' et affirmation du Saas, 2008 a encore été une année riche pour tous les décideurs du monde informatique. Une année pleine de conflits, aussi, au niveau économique (tarifs SAP, fusion-hésitation avortée entre Microsoft et Yahoo...) comme au niveau social, avec une avalanche de plans d'économies et de suppressions de postes. LeMondeInformatique.fr a fait le tri pour vous, et vous propose la synthèse de tout ce qu'il faut savoir pour aborder 2009 dans les meilleures conditions. Un dossier à imprimer et à conserver - avec tous nos voeux de bonheur et de réussite pour cette nouvelle année. (...)
< Les 10 documents précédents | Les 10 documents suivants > |