Flux RSS

Cloud computing

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

904 documents trouvés, affichage des résultats 621 à 630.

< Les 10 documents précédentsLes 10 documents suivants >


(31/08/2010 12:12:44)

Un 2ème datacenter modulaire en Virginie pour Microsoft

Microsoft poursuit son programme de développement de centres de calcul sur lesquelles s'appuieront ses offres de services SaaS et cloud. Après un premier datacenter géant dans l'Iowa qui a couté la bagatelle de 500 millions de dollars, la firme de Redmond va poser sur la table 499 millions de dollars pour construire un autre centre de ce type en Virginie, dans le comté de Mecklenburg. C'est le gouverneur de cet état du sud des Etats-Unis, Bob McDonnell, qui a annoncé ce projet dans un communiqué de presse. Cinquante personnes environ seront employées dans ce datacenter. À quelques mois des prochaines élections parlementaires, Bob McDonnell se félicite que la Virginie ait battu la Caroline du Nord et le Texas pour l'implantation de ce centre. Ce dernier sera un des 4 que Microsoft envisage de construire en utilisant des containers. La compagnie avait détaillé en 2008 son programme de mise en chantier de datacenters de nouvelle génération employant une architecture modulaire pour réduire les coûts de construction, accélérer la mise en service et améliorer l'efficience énergétique globale.

Si le fond fédéral de l'État de Virginie financera ce projet à hauteur de 2,1 millions de dollars, la clé de la décision de Microsoft de choisir la Virginie reposait sur la présence des réseaux de fibre optique de deux opérateurs locaux ( Mi-Atlantic Broadband Cooperative et Dominion Virginia), selon l'entourage du gouverneur. Microsoft n'a, pour l'instant, pas fourni de détails supplémentaires sur le projet.

En 2008, Microsoft avait dévoilé des plans pour un centre de données dans l'Iowa qui coûterait 500 millions de dollars et emploierait de 50 à 75 personnes. La firme a d'autres grands centres de calcul à Chicago, San Antonio (au Texas), Quincy (près de Washington) et Dublin (en Irlande). Une activité devenue indispensable pour accompagner la stratégie que Microsoft développe dans les services avec ses applications SaaS et sa plate-forme cloud Azure à destination des entreprises.

Illustration : crédit photo D.R.

 

(...)

(31/08/2010 11:45:06)

Avec Cloudstart, HP aide au déploiement de clouds privés

Pour accélérer le déploiement de clouds privés HP vient de présenter CloudStart, une offre qui associe du matériel, des logiciels et du conseil. Le package sera proposé dans le cadre de HP Cloud Consulting Services et utilisera les outils que le fournisseur a mis au point pour automatiser la gestion des applications dans le cloud. CloudStart s'appuiera également sur les solutions de stockage et les serveurs lame du constructeur.

Selon HP, CloudStart devrait aider les entreprises à construire un cloud  privé en 30 jours. Ces plateformes pourront être mises en oeuvre de différentes façons : en recourant à un fournisseur de services cloud comme Amazon, en les bâtissant en interne, ou en combinant ces deux options sous la forme d'un cloud  hybride.

La semaine dernière, le groupe a annoncé le rachat de Stratavia, un fournisseur d'outils de gestion pouvant aider à gérer les services informatiques à administrer efficacement les clouds hybrides. Selon HP, l'évolution la plus naturelle pour passer d'un datacenter traditionnel au cloud consiste d'abord à optimiser les applications pour qu'elles fonctionnent dans un cloud privé, puis de les faire évoluer vers un environnement hybride.

Le package Cloudstart est actuellement disponible en Asie-Pacifique et au Japon. Il devrait être disponible dans le reste du monde en décembre, assure HP, sans donner d'indication de prix.

(...)

(31/08/2010 11:45:08)

CA s'offre Arcot pour ses services d'authentification sur le cloud

CA Technologies a annoncé son projet de racheter Arcot Systems pour le prix de 200 millions de dollars dans le but d'améliorer ses services de sécurité sur le cloud. La transaction devrait être effective pour le 30 septembre, soit la fin du second trimestre fiscal. Les produits d'authentification avancée et de prévention de la fraude d'Arcot sont complémentaires avec le catalogue SiteMinder de CA, comprenant des offres de gestion d'accès et d'identités. Celles-ci donnent en effet au client la possibilité de s'authentifier par l'intermédiaire d'un logiciel plutôt que via des jetons liés au matériel. Pour leur part, les produits Arcot ont déjà vérifié près de 120 millions d'identités, et fournissent quotidiennement leurs services de prévention de la fraude pour 1 million de transactions par carte bancaire, d'après CA. 165 employés rejoindront donc la division sécurité de l'acheteur. Il s'agit là du dernier mouvement en date de l'éditeur pour perfectionner sa stratégie cloud via des acquisitions. Au mois d'août, l'entreprise avait déjà acquis 4Base, spécialisée dans la virtualisation et en février, elle avait intégré 3Tera, créateur d'une plateforme d'applications cloud.

Crédit Photo : D.R.

(...)

(31/08/2010 10:45:23)

AMD envisage des serveurs équipés de puces de faible puissance

Après Microsoft avec des puces Intel Atom et certains fournisseurs de services cloud sur base Via Nano, AMD  envisage également l'évaluation d'une plate-forme serveur basse consommation d'entrée de gamme reposant sur son architecture Bobcat. «Nous réfléchissons à une solution bénéficiant de ce design» a expliqué Donald Newell, le nouveau directeur technique d'AMD, transfuge d'Intel où il occupait précédemment le poste d'ingénieur en chef. « Il serait stupide de ne pas le faire. »


Le fondeur de Sunnyvale va bientôt commencer à expédier ses premières puces faible puissance Ontario exploitant l'architecture Bobcat pour équiper des portables ultrafins et des netbooks. Ces processeurs combinent une
unité de traitement et un circuit graphique sur un seul morceau de 
de silicium. AMD, qui n'a pas encore offert des puces basse consommation  dans le cadre de son offre serveur, trouverait avec l'Ontario la puce adéquate. À peine arrivée, Don Newell exploite de nouvelles pistes pour doper l'offre d'AMD. Au-delà de la simple amélioration des puces, il se penche également sur les aspects partage de la mémoire et gestion du réseau. Des points qui pourraient significativement augmenter les performances  globales des serveurs. Chez Intel, le nouveau CTO d'AMD a travaillé sur le développement des puces de type SoC (Socket on a Chip) et des infrastructures pour centres de calcul.

Une phase de test

Il y a un intérêt croissant dans le développement de serveurs avec des puces basse consommation, et l'expérimentation est toujours une bonne chose, poursuit Don Newell. L'efficience énergétique des serveurs est devenue un des principaux axes de développement pour réduire la facture électrique des entreprises et les puces basse consommation sont peut-être la solution pour certains usages. Mais avant de proposer des processeurs Bobcat pour serveurs, la firme doit passer par une phase de tests et d'évaluations pour bien mesurer les avantages et les inconvénients de cette plate-forme. «Il y a seulement quelques études ... et il y a encore beaucoup de données à 
collecter », souligne Donald Newell. « Cela dépend d'un certain nombre de facteurs... pour déterminer si, au final, le design sera bon ou mauvais. »

Un ensemble de processeurs de faible puissance peuvent fournir de meilleures performances par watt que des puces pour serveur beaucoup plus rapides, explique Don Newell. Mais les processeurs de type traditionnel pour serveurs sont également plus réactifs et fiables, et offrent une meilleure gestion de la montée en charge. « Il y a encore certains usages où une grande quantité de calcul doit être réalisée dans un temps très court », précise l'ingénieur. « Les coeurs très puissants peuvent fournir plus de capacité de traitement ... et un meilleur temps de réponse. » 

Par exemple, des requêtes adressées à un moteur de recherche seront plus rapidement traitées par un serveur utilisant des processeurs classiques que par des puces pour netbooks. Toutefois, jusqu'à ce que toutes les données soient collectées et analysées, la stratégie serveur de la société continuera à tourner autour de sa gamme de processeurs Opteron. Ces dernières proposent jusqu'à 12 coeurs par socket avec la série 6000 (Magny Cours) et AMD a déjà annoncé un successeur capable d'accueillir jusqu'à 16 coeurs avec la famille Interlagos reposant sur la plate-forme Bulldozer présentée lors de la dernière convention Hot Chip à l'Université de Stanford en Californie.

Dell, SeaMicro et ARM sur les rangs


AMD exploite aujourd'hui un marché ou la récolte est encore maigre. 
Dell propose bien des serveurs de faible puissance reposant sur des processeurs Via Nano, et la start-up  SeaMicro a dévoilé un serveur embarquant jusqu'à 512 puces Intel Atom greffées sur des cartes mères de la taille d'une carte de crédit. Pour défendre sa solution, SeaMicro explique que les processeurs Intel Atom sont bien adaptés à des charges de travail limitées, et sont capables de fournir des réponses rapides tout en utilisant beaucoup moins d'énergie que des coeurs plus puissants.

Et après quelques années de silence sur le sujet, ARM cherche également à pousser ses processeurs de faible puissance dans les serveurs. D'autres entreprises, comme Marvell et Smooth-Stone, ont aussi annoncé leur intention de proposer des plates-formes serveurs reposant sur des puces exploitant l'architecture ARM. Ces circuits équipent aujourd'hui presque tous les smartphones et les équipements électroniques évolués.

Donald Newell reste toutefois sceptique quant à la réussite d'ARM sur le marché des serveurs, qui reste aujourd'hui dominé par l'architecture X86. Incompatibles avec les instructions X86, les puces ARM ne peuvent pas s'intégrer d'un coup de baguette magique dans les centres de calcul traditionnels. «Il sera difficile pour ARM de s'imposer sur le marché des serveurs, comme pour le X86 d'arriver sur celui des lave-vaisselles », assène Don Newell.

Associer plus étroitement CPU et GPU

Dernier focus du CTO d'AMD, le développement d'une plate-forme serveur associant étroitement CPU et GPU. À l'heure actuelle, ces circuits sont conçus pour des besoins informatiques différents, mais à l'avenir ces éléments architecturaux pourraient parfaitement travailler beaucoup plus étroitement pour le plus grand bénéfice des entreprises, conclut Don Newell. Pour en savoir plus, il faudra atteindre les premiers tests de la plate-forme Bulldozer qui exploite une voie originale sur le marché des serveurs en réduisant le nombre d'unités de calcul en virgule flottante au sein des processeurs au profit justement des GPU.

 

Illustration : Donald Newell, CTO d'AMD, crédit D.R.

(...)

(30/08/2010 14:09:21)

Citrix achète VMLogix pour assouplir l'usage d'OpenCloud

Citrix prévoit d'inclure certaines des technologies de VMLogix, lui-même fournisseur en technologies de gestion et d'automatisation de la virtualisation, dans ses prochaines versions gratuites de XenServer. Cela permettra, au sein d'une entreprise, d'offrir des services virtuels sur la base des ressources informatiques existant en interne, de la même manière que cela se fait sur des clouds publics. Les utilisateurs pourront notamment s'abonner à des services en ligne et les utiliser immédiatement, comme le pratiquent généralement les prestataires de cloud public.

L'éditeur de Ft. Lauderdale va également ajouter la technologie VMLogix à sa plate-forme OpenCloud de manière à ce que ses clients, eux-mêmes fournisseurs de clouds publics, puissent offrir des fonctions de type "gestion du cycle de vie" pour l'assurance qualité et la continuité de l'activité. Citrix a également l'intention d'ajouter de nouvelles capacités à OpenCloud permettant aux entreprises clientes de gérer une combinaison de traitements répartis entre leurs clouds publics et privés à partir d'une console de contrôle unique, même s'ils utilisent les services de différents fournisseurs de services en ligne.

Assouplir l'usage du cloud

L'acquisition de VMLogix et les mises à jour d'OpenCloud répondent à d'importants problèmes en matière de cloud computing, comme l'a souligné Wes Wasson, directeur de la stratégie chez Citrix. "Nos clients ne cessent de nous dire qu'ils veulent en priorité profiter de l'économie et de l'élasticité du cloud dans leurs datacenters existants," a-t-il déclaré. "Ensuite, ils demandent de pouvoir disposer de la souplesse nécessaire pour transférer les traitements entre le cloud privé et public, en fonction des besoins, avec des garanties de sécurité et de performance. Enfin, ils veulent pouvoir changer de fournisseur et déménager leurs données facilement."
Pour Wes Wasson, "ces apports faciliteront la mise en place et le partage d'environnements de production à la demande sur les clouds privés et publics, et que la répartition des charges de travail virtuelles en fonction des besoins pourra être effectuée en un clic, cela à travers plusieurs types d'hyperviseur."

Citrix a également réitéré son soutien à OpenStack, le groupe dirigé par Rackspace et la Nasa, qui travaille sur des outils Open Source destinés à faciliter aux entreprises la collaboration avec des fournisseurs de cloud multiples. A la convention VMWorld qui démarre cette semaine à San Francisco, Citrix montrera comment gérer une charge de travail entre plusieurs machines XenServer tournant sur un cloud et des machines virtuelles tournant sur un cloud public qui utilise OpenStack, cela à partir d'une console de contrôle unique.

Enfin, Citrix a indiqué qu'il allait ajouter des capacités de commutation virtuelle à OpenCloud avec vSwitch Open, un commutateur virtuel Open Source qui supporte le protocole OpenFlow. L'idée est de permettre aux fournisseurs de clouds de bâtir facilement des plateformes multi-tenants séparées, c'est-à-dire capable de faire tourner plusieurs comptes clients sur un seul système, tout en proposant des politiques dynamiques.

Crédit photo : Citrix

(...)

(30/08/2010 13:55:49)

Ce que cache la bataille pour 3Par

La guerre des enchères pour 3Par a vu son dernier rebondissement en date lorsque HP a offert 30 $ par action, soit 3 $ de plus que Dell, soit un prix total de 2 milliards de dollars. 3Par a depuis jugé l'offre d'HP « supérieure » et l'a faite accepter par son conseil d'administration. Cette saga de la rentrée autour d'une petite société californienne de stockage souligne la tendance continue de ce marché à se tourner vers le cloud. Avec la crise, de nombreux clients professionnels se sont en effet orientés vers des solutions de stockage virtualisé, comme ceux que propose 3Par.

Si le marché des ordinateurs personnels a lui aussi légèrement été érodé par l'avènement des smartphones et tablettes, les deux adversaires se battent sur le marché des serveurs, qui se tourne de plus en plus vers le cloud. Ceci explique en partie l'intérêt de Dell et HP pour 3Par. Le cloud computing offre son lot d'avantages aux PME et PMI, réduisant notamment les coûts, le nombre de techniciens IT à embaucher et le besoin d'espace physique à allouer aux serveurs. Peu importe donc qui de Dell ou d'HP remportera la bataille, puisque dans tous les cas, 3Par sera intégré au catalogue des solutions de stockage du gagnant. Celui-ci se positionnera alors comme l'un des fournisseurs les plus intéressants pour les entreprises aux moyens limités souhaitant virtualiser leur système de stockage. Les utilisateurs actuels des services 3Par ne devraient quant à eux pas être perturbés.

D'autres options bien plus chères

Mais les enjeux, au niveau des deux concurrents, sont différents, indépendamment de ce que cela engendrera pour la clientèle. Dell a en effet déjà acquis des technologies ayant vocation à compléter celles qu'il comptait obtenir avec 3Par, avec par exemple Ocarina Networks, spécialisé dans l'optimisation du stockage, et Scalent qui fournit des solutions de virtualisation pour datacenters. « S'ils n'ont pas de système de stockage pour entreprises, ces rachats sont beaucoup moins intéressants pour Dell », précise Andrew Reichman, analyste chez Forrester. HP vend des technologies du même type, via un partenariat avec Hitachi, mais ajouter 3Par pourrait faire migrer la clientèle vers des services intégralement HP, augmentant les bénéfices. Mais en faisant ainsi la cour à 3Par, l'entreprise risque de dévaluer les produits Hitachi selon l'analyste, qui rappelle qu'HP a déclaré « avoir besoin » de ce rachat. Le perdant devra donc faire face à une situation qui lui sera nuisible, qu'il ait engagé des coûts pour perfectionner 3Par, ou qu'il ait dévalué ses services actuels. Mais il ne sera pas pourtant à court d'options, même si des sociétés comme NetApp ou EMC seront bien plus coûteuses que ne pourra l'être 3Par, et impliqueraient de plus grandes difficultés d'intégration.

Crédit Photo : D.R.

(...)

(27/08/2010 11:52:49)

HP propose 27 $ par action pour 3Par et Dell s'aligne (Maj)

A peine quelques heures après que Dell ait surenchéri sur l'offre d'HP en proposant 24,30 $ par action pour le fournisseur de solutions de stockage 3Par, HP a encore une fois misé plus haut que son concurrent, et est désormais prêt à mettre 27 $ par action. Le total de la transaction est maintenant de l'ordre de 1,8 milliards de dollars, tandis que l'offre initiale de Dell se montait à 1,15 milliards. Les termes du contrat entre 3Par et Dell n'excluaient toujours pas définitivement la possibilité d'une contre-proposition d'HP, mais incluaient par contre une clause de dédit 72 millions de dollars de compensation en cas de rupture. Et dernière surprise de la journée, le texan s'est aligné sur l'offre de HP et propose donc également 27$ par action ! HP peut toutefois encore surenchérir, 3Par étant dans l'obligation d'accepter - pendant une courte durée seulement - une offre significativement supérieure.

Hier, David Frink, porte-parole de Dell, était resté suffisamment vague quant à un éventuel surenchérissement. « Nous allons prendre notre temps, évaluer la situation et agir dans les meilleurs intérêts de nos clients et de nos actionnaires. Nous annoncerons notre décision en temps voulu ». Aujourd'hui, le grand gagnant dans l'histoire est très clairement 3Par, qui affichait des pertes sur les bénéfices nets de son année fiscale.

(...)

(26/08/2010 17:17:25)

Dell surenchérit pour 3Par à 24,30 $ par action

Dell a donc finalement réagi à l'offre de 24 dollars par action lancée par HP pour l'achat de 3Par. L'écart se joue de peu sur le chiffre global, les deux propositions valorisant la société autour de 1,6 milliards de dollars chacune, mais reste visible au prix par action. Dell est désormais prêt à mettre 24,30 $ pour chaque action, après son offre originelle de 18 $ par action (pour un total d'environ 1,15 milliards de dollars) qui avait été dépassée d'un tiers par les 24 $ de HP. L'offre a été acceptée par 3Par, qui avait dès le début soumis une réserve à l'acquisition finale stipulant que la meilleure enchère l'emporterait s'il venait à y en avoir une. Pour cette dernière proposition, dans le cas où 3Par accepterait encore une fois une offre supérieure, elle aurait à reverser 72 millions de dollars de compensation à Dell en accord avec la clause de dédit. HP n'a pas encore commenté ce dernier rebondissement.

Crédit Photo : D.R.

(...)

(26/08/2010 16:57:34)

HP acquiert Stratavia, spécialiste de la gestion du cloud

Cette société, basée à Denvers, propose des outils pour  automatiser le déploiement, le paramétrage et la gestion des bases de données et du middleware. Les solutions Stratavia qui comprennent la plateforme Data Palette en charge de la détection des modifications de paramètrage, seront combinées aux services HP Service Automation.

L'avantage clé des solutions de Stratavia est d'automatiser des tâches qui sont utilisées dans des environnements hybrides où les applications hébergées comprennent des éléments physiques ou en mode cloud. De plus en plus d'entreprises migrent une partie de leur infrastructure IT dans le cloud, d'où l'importance de la capacité à gérer l'ensemble des écosystèmes. Devant la complexité de la tâche, les sociétés ont besoin d'outils pour automatiser aussi bien les grands que les petits changements.

Aucun montant n'a été donné pour cette acquisition.

 

Illustration: Data Palette Plateform

Crédit Photo: D.R

(...)

(26/08/2010 15:54:35)

Red Hat offre son API cloud comme standard ouvert du marché

"Nous ne voulons pas que Deltacloud soit sous le contrôle d'un vendeur en particulier, Red Hat compris. Si nous voulons accéder à une véritable interopérabilité et à une réelle portabilité, nous avons besoin d'un instrument de contrôle tiers," a déclaré Bryan Che, chef de produits cloud pour Red Hat, au cours d'une webcast pendant laquelle il a tracé la feuille de route de l'entreprise en matière de cloud computing. "Le manque d'interopérabilité entre les différents vendeurs de solutions cloud est l'une des préoccupations majeures des entreprises qui pèse dans leur décision d'adopter ou non le cloud," a souligné Gary Chen, directeur de recherche en logiciels de virtualisation pour l'entreprise chez IDC, lors d'une présentation qui a accompagné l'annonce de Red Hat.

Une ouverture progressive

C'est en septembre 2009 que Red Hat a lancé Deltacloud sous forme d'un ensemble d'API Open Source qui pouvaient être utilisées pour répartir les charges de travail entre différents fournisseurs de services cloud IaaS (Infrastructure-as-a-Service), comme Amazon et Rackspace. Afin de dispatcher la charge de travail entre les différents prestataires de cloud, les clients doivent pouvoir s'appuyer sur "une architecture et une pile compatibles avec le système qu'ils font tourner en interne," a déclaré Paul Cormier, président de Red Hat pour les produits et technologies. Pour encourager les contributions extérieures, Red Hat a cédé le code base de Deltacloud à l'Apache Incubator, un service de dépôts de logiciels qui, par la suite, peuvent éventuellement être supervisés par la Fondation Apache. L'éditeur a également créé le site APIwanted.org, sur lequel des parties tierces peuvent soumettre leurs suggestions pour des API supplémentaires ou signaler les fonctionnalités qu'ils souhaitent voir dans Deltacloud. Red Hat a également affirmé que, à part elle, d'autres entreprises participaient à l'élaboration de Deltacloud, ou l'utilisaient d'une manière ou d'une autre, citant notamment Cisco, Dell, Hewlett-Packard, IBM, Ingres et Intel. Red Hat a également annoncé qu'elle proposerait bientôt une solution de Plateform-as-a-Service construite autour de sa pile logicielle middleware JBoss.

D'autres alternatives pour un cloud ouvert

Mais Red Hat, n'est pas seul à s'être penché sur la question. Un certain nombre de fournisseurs de services cloud cherchent aussi des solutions. En juillet, Rackspace et la NASA ont entamé l'opération OpenStack pour collecter des logiciels Open Source développés pour le cloud computing. Plus tôt cette semaine, Eucalyptus Systems a lancé la version 2.0 de sa plate-forme cloud, qui utilise l'API AWS (Amazon Web Services). La société en a profité pour dire au passage que, en raison de sa popularité, l'AWS était devenu de facto un standard. 

C'est le Cloud Management Working Group, entité du DMTF, l'organisme chargé de superviser des normes comme le CDM (Common Diagnostic Model), DASH (Desktop and Mobile Architecture For System Hardware) et OVF (Open Virtualization Format), qui examinera la proposition de Red Hat en vue de l'adoption de Deltacloud en tant que standard.

(...)

< Les 10 documents précédentsLes 10 documents suivants >