Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 851 à 860.
| < Les 10 documents précédents | Les 10 documents suivants > |
(22/06/2009 12:14:43)
Tibco propose une plateforme applicative « élastique » dans le cloud
Tibco, éditeur spécialisé dans le middleware, a décidé de se lancer... dans le middleware en ligne. Et pas forcément de la façon dont on s'y attendait, puisque à la différence de certains éditeurs du domaine des architectures orientées services (SOA) et des échanges interapplicatifs, Tibco ne fournit pas un simple service d'intermédiation en mode Saas, mais une véritable plateforme applicative en ligne, qu'on peut ranger dans la catégorie Apaas (Application platform as a service), pour suivre la classification de Gartner sur les offres de cloud. L'offre Tibco Silver ressemble un peu à celle de Microsoft, Azure, ou à celle de Google avec AppEngine, dans la mesure où il est proposé aux développeurs d'y déposer leurs applications, pour un tarif qui variera en fonction de l'usage : nombre d'utilisateurs et/ou de bande passante consommée et/ou d'instances de l'application déployées, etc. La grande différence, assure Tibco, c'est qu'avec Silver la montée en charge et le retour à une consommation moindre des ressources s'effectueront de façon automatisée. C'est dans cette automatisation des choses que Tibco met son savoir-faire, en rendant l'offre EC2 (Elastic compute cloud) d'Amazon vraiment élastique. L'éditeur a en effet adapté son offre de CEP (Complex event processing) pour surveiller l'utilisation des ressources et prendre des mesures prédéfinies. « Notre moteur de règles Business Events donne à la plateforme son élasticité, explique Thierry Schang, directeur de la R&D de Tibco. Il analyse non seulement la charge de la CPU, mais aussi l'évolution du temps de réponse des requêtes et les contrats de niveau de service pour chaque requête. » Des applications conformes à SCA déployées « en quelques minutes » Au fur et à mesure, d'autres outils seront adaptés à cet usage en ligne, notamment, indique Thierry Schang, en ce qui concerne la gouvernance et la sécurité. Un moteur d'orchestration de processus devrait également être de la partie. Le but est de pouvoir déployer des applications conformes au standard SCA (Service component architecture), de façon à pouvoir relier simplement consommateurs et producteurs de services. Tibco destine cette offre à des grandes entreprises souhaitant déployer rapidement des applications pour le grand public sans présumer de leur succès, ou bien des applications destinées à un usage interne mais dont l'usage subit des variations saisonnières - « typiquement des applications de paie ou de comptabilité utilisées juste quelques jours dans le mois ». En revanche, l'infrastructure d'Amazon sur laquelle s'appuie Tibco ne garantit pas sa disponibilité au delà de 99,95% (A noter qu'aux Etats-Unis, Amazon propose une fonction d'autoscaling qui permet de voir évoluer l'infrastructure en fonction de la montée en charge). Thierry Schang minimise ce problème face aux gains attendus : « Je ne pense pas que ce soit dangereux, on voit ce que ça peut apporter en souplesse, en rapidité de déploiement : on supprime les phases de spécifications, d'achat de serveurs... passant ainsi de plusieurs mois à quelques minutes ! » Disponible dès aujourd'hui en bêta - sur dossier - Tibco Silver accepte des applications en Java, .Net, Ruby, Python et C++. D'autres langages suivront. De même, Tibco évalue d'autres plateformes qu'EC2, ainsi qu'une possibilité de donner aux clients la maîtrise de la localisation géographique de leurs données. Aucun tarif n'est encore fixé. (...)
(15/06/2009 17:18:00)HP propose des serveurs légers et modulaires pour les grands datacenters
HP annonce sa gamme de systèmes ExSO (Extreme Scale-Out) destinée aux activités du cloud, du web 2.0 et du calcul haute performance. Celle-ci s'adresse à des entreprises aux configurations de datacenters ambitieuses qui comptent jusqu'à 100 000 serveurs, dans les domaines des moteurs de recherche, du jeu en ligne, de l'animation ou des services financiers, par exemple. "Les clients ayant ce type de modèles économiques ont besoin de solutions avec lesquelles chaque dollar, chaque watt et chaque m2 comptent, insiste Stephen Bovis, vice-président et directeur general pour les serveurs standards de la division TSG (Technology solutions group) pour HP Asie Pacifique et Japon. Avec ExSO, HP leur propose l'innovation la plus significative depuis le format lame. » Pour répondre aux besoins de ces sociétés, HP s'appuie en effet avec ExSO sur un matériel léger et plus modulaire installé dans des tiroirs et sur des rails. Selon le constructeur, cette architecture devrait réduire de 10% les coûts d'acquisition et de 28% la consommation électrique, tout en doublant la densité de puissance machine. Ainsi, un datacenter d'environ 9 300 m2 peut économiser plus de 152,8 millions de dollars sur les dépenses en capital et 13,7 M$ sur la consommation énergétique. Au coeur du package, se trouve la famille de serveurs ProLiant SL de HP dont l'architecture est conçue spécifiquement pour des environnements à très grande échelle. Une alimentation et un système de refroidissement améliorés, ainsi qu'une circulation de l'air optimisée, leur permet de consommer 28% d'énergie en moins par rapport à des serveurs en rack traditionnels. Leur poids est également inférieur d'un tiers à ces systèmes parce qu'ils contiennent moins de métal. Enfin, ces serveurs sont placés dans des tiroirs amovibles qui permettent une installation rapide et modulaire. La densité des configurations en est ainsi accrue puisqu'un rack 42U intègre jusqu'à 672 processeurs et 10 To de disques. (...)
(12/06/2009 18:10:19)Le gourou de la sécurité Chris Hoff devient directeur de la virtualisation et du cloud computing chez Cisco
Christopher Hoff arrive chez Cisco avec le titre de directeur de la virtualisation et du cloud computing au sein de l'équipe datacenter solution de l'équipementier réseau en pleine phase d'évangélisation pour son offre UCS. Auparavant Architecte en chef sécurité pour la division systèmes et technologie d'Unisys, ce spécialise unanimement reconnu porte un regard lucide sur l'insécurité qu'engendre la virtualisation et l'informatique en cloud. L'hiver denier, il soulignait pour notre confrère CSO quelques points cruciaux dans un monde qui aborde une mutation profonde sans, le plus souvent, en évoquer la complexité des implications. Il insistait en particulier sur les points suivants : pour parvenir à une meilleure sécurité au travers de la virtualisation, il faut commencer par sécuriser la virtualisation elle-même avant de s'attaquer à virtualiser la sécurité. Un programme qui fait appel à toutes les compétences présentes autour d'un datacenter dont l'architecture doit être entièrement revue. Pour lui, le paroxysme du décalage entre les concepts qui chantent et la dure réalité est atteint lorsque l'on parle d'informatique en cloud. On ne pourra pas reprocher à Christopher Hoff de ne pas affronter cette réalité, lui qui était déjà un des membres fondateurs de la Cloud Security Alliance et qui occupe désormais un poste en première ligne face aux problèmes qu'il dénonce. (...)
(05/06/2009 12:34:20)Forrester IT Forum : « Les DSI doivent nager dans les mêmes eaux que la génération Y »
Comment les directions informatiques des grandes entreprises peuvent-elles économiser de l'argent et minimiser les risques ? C'est à cette question que se sont efforcés de répondre cette semaine les analystes de Forrester Research pendant trois jours, à Berlin, en abordant les grands thèmes du moment, comme les technologies de 'cloud', la stratégie 'lean', le Green IT... ou les réseaux sociaux et le Web 2.0. En ouverture de cet IT Forum européen, et même si cela commence à faire un peu tarte à la crème, le PDG de Forrester n'a pas manqué de rappeler que la crise actuelle constitue aussi l'opportunité de prendre des décisions radicales. Des décisions censées propulser les entreprises à des kilomètres devant leurs concurrents dès que la récession aura pris fin. Mais des décisions qui demandent de rajeunir considérablement les points de vue sur le métier des entreprises, sur les nouvelles générations de clients et les nouvelles générations de collaborateurs. Pour George Colony, CEO de Forrester Research, les DSI et autres décideurs IT doivent considérer et agir sur six points clés. 1) Quelle que soit l'activité de l'entreprise, tout va désormais passer par l'informatique ; autrement dit, il faut que les DSI ne considèrent plus seulement l'IT, mais les BT (« business technologies »), ou comment les nouvelles technologies s'articulent dans une vision orientée business. 2) Le temps où les clients étaient fidèles à une marque est révolu. Aujourd'hui, l'attachement à une marque ou un produit passe par les outils sociaux ; il faut donc que les BT prennent en compte les réseaux sociaux et autres outils de type Web 2.0. 3) « Les nouvelles générations de clients vous paraîtront étrangères », a aussi prévenu George Colony, en faisant référence aux habitudes de la génération Y (les 'digital natives', âgés de 18 à 27 ans), née avec le numérique. Son conseil : nager dans les mêmes eaux. 4) La bataille pour les talents va faire rage, et pour attirer les jeunes, justement issus de cette génération Y, il faudra que les systèmes d'information et les nouveaux projets soient attractifs. 5) La façon de vendre à cette nouvelle génération va changer ; là encore, c'est au département informatique de prendre les devants, et de proposer des solutions adaptées au département marketing. 6) Enfin, la façon dont les entreprises innovaient jusqu'à présent change également. Aujourd'hui, l'innovation provient de la collaboration avec les partenaires et les clients (plus tard pendant la conférence, un analyste a cité le cas de Starbucks, qui fait plancher ses clients sur leurs boissons préférées au travers d'un site Web communautaire. L'industrie automobile américaine a souffert de ne pas avoir compris cela, a expliqué George Colony. Permettre cette collaboration avec l'extérieur est un impératif pour les DSI, a conclu le fondateur de Forrester Research. (...)
(04/06/2009 16:01:11)Le cloud de Verizon Business s'appelle CaaS
Verizon Business, la division de services aux entreprises de l'opérateur telco américain, annonce CaaS (Computing as a service), son offre de cloud computing. Il la commercialise dès aujourd'hui aux Etats-Unis et en Europe. L'infrastructure sous-jacente à CaaS repose sur l'hyperviseur ESX de VMware installé sur des serveurs HP et des VM soit sous Linux RHEL, soit sous Windows Server 2003. Verizon Business met en avant l'interface Web d'administration qu'il met à disposition de ses clients. Elle se présente comme une interface graphique d'administration complète (ressource CPU, stockage et réseau) et comporte une fonction de refacturation interne. La facturation se fait, bien sûr, à l'usage et les clients peuvent piloter eux-mêmes la gestion des ressources dont ils ont besoin. Bien que CaaS soit supposé s'adresser à un vaste marché, composé à la fois de PME et de grands comptes, Verizon ne publie pas ses tarifs. (...)
(20/05/2009 10:49:49)EMC ouvre son système Atmos de stockage en cloud en libre-service
Aux Etats-Unis, EMC propose désormais en libre-service sa plateforme Atmos onLine de stockage en cloud, annoncée en novembre dernier. Ce système apparaît comme un concurrent direct de celui d'Amazon, S3 (Simple Storage Service). EMC ne donne pas de prix, mais déclare évidemment, être compétitif avec les tarifs d'Amazon. On peut donc parler d'un prix tournant autour des 10 cents par Go. McAfee serait aussi sur les rangs des revendeurs potentiels. La rumeur court sur un accord avec EMC mais on ignore encore s'il porte sur Atmos onLine, service de stockage en ligne pour les grandes entreprises, ou sur Mozy, sa déclinaison pour les PME et les particuliers qui se trouve sous la responsabilité de Decho, filiale d'EMC créée en novembre 2008. (...)
(04/05/2009 12:44:46)Le cloud Open Source Eucalyptus lève 5,5 M$
La communauté à l'origine d'Eucalyptus*, une plateforme Open Source de cloud privé, a levé 5,5 M$ auprès de Benchmark Capital and BV Capital pour créer une entité de commercialisation de ses travaux. Tout comme la version gratuite, Eucalyptus Systems permet de gérer un pool de ressources serveurs -stockage-réseau comme un cloud. Ses développeurs soulignent sa dimension "hybride". Les API d'Eucalyptus sont en effet compatibles avec celle d'AWS (Amazon Web Services), une des références actuelles de Cloud public. * Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems, développé par le Computer Science Department de l'Université de Californie à Santa Barbara. (...)
(28/04/2009 17:50:03)La DMTF se lance à son tour dans la standardisation du cloud computing
C'est au tour de l'association professionnelle DMTF de se lancer dans un projet de "standardisation" du cloud computing. La très officielle Distributed Management Task Force (DMTF), qui regroupe tous les grands acteurs traditionnels de l'industrie, se propose d'utiliser ses travaux sur le format OVF (Open Virtual Machine) comme brique de base pour élaborer, à terme, une standardisation des interfaces entre les différentes offres de cloud computing. La DMTF vient d'achever la formalisation du format OVF 1.0, un conteneur XML qui permet de déplacer les VM (machines virtuelles) d'un hyperviseur à un autre avec ses principaux attributs. Mais Amazon, dont l'offre AWS de cloud computing est considérée comme la plus élaborée, n'est pas membre de la DMTF. Pour l'instant, il n'est pas question que les travaux de la DMTF sur l'Open Cloud se fassent en concertation avec ceux de l'Open Cloud Manifesto ou, pour ne citer qu'un autre groupement, ceux de l'Open Cloud Consortium. (...)
(21/04/2009 17:57:03)Avec vSphere 4, VMWare englobe la virtualisation du stockage et du réseau
VMWare annonce que vSphere 4, le successeur de Virtual Infrastructure 3 (VI 3) sera disponible en juin. Autour d'un hyperviseur ESX 4.0 entièrement refondu, l'éditeur décrit un environnement, lui aussi, profondément modifié. Pour résumer, là où VI 3 était centré sur les serveurs, vSphere 4 étend les avantages de la virtualisation à l'ensemble des ressources annexes, autrement dit le stockage et le réseau. Cette avancée dans la décorrélation entre les couches matérielles et logicielles devrait contribuer, selon Réza Malekzadeh, directeur produits et marketing senior chez VMware EMEA, à libérer les directions informatiques du poids du coût d'entretien de l'existant. Aujourd'hui, elles ne peuvent consacrer que 5% de leur budget à l'amélioration de leur infrastructure alors qu'elles doivent en dépenser 43% à sa maintenance. Les 53% restants étant dédiés aux applications (30% pour leur maintenance et 23% pour leur amélioration). Si les premiers éléments de vSphere arrivent en juin, ils ne seront pas tous là ensemble. VMware entretient soigneusement le flou sur les fonctionnalités qui seront totalement opérationnelles au début de l'été et les autres. "Toutes les fonctionnalités de vSphere seront livrées d'ici à la fin de l'année, indique Réza Malekzadeh. D'ici là, les autres produits de VMware seront aussi mis à niveau pour vSphere." Entrée en scène de la notion de cloud computing Notons que le terme de VDC-OS (Virtual data center OS) a disparu au profit de celui de cloud OS. L'éditeur le préfère au précédent, car il lui permet d'intégrer la virtualisation dans la notion plus large de cloud, qui englobe aussi les ressources mises à disposition par des prestataires extérieurs. Bien qu'elles soient toutes liées aux caractéristiques de l'hyperviseur ESX 4 (voir tableau), les fonctions de vSphere 4.0 sont découpées en trois segments : vCompute, vStorage et vNetwork. vCompute est au coeur de l'hyperviseur tel qu'on le connaît déjà. Ses capacités d'optimisation des ressources CPU et mémoire (par l'entremise du DRS, Distributed Resource Scheduler) sont étendues. DPM (Distributed Power Management) peut activer ou désactiver des serveurs sous vSphere en fonction de la charge de traitement. A cela, s'ajoute une dimension pour l'optimisation des ressources de stockage et réseau qui donne naissance à vStorage et à vNetwork. vStorage annonce l'ajout à l'hyperviseur de fonctions pour gérer la surallocation de volumétrie (thin provisioning). Elles dispensent donc d'utiliser les outils proposés par les fournisseurs de stockage. vNetwork étend à toute une infrastructure virtualisée le rôle joué par le switch virtuel présent dans ESX 3.5. Le vNetwork Distributed Switch permettra à une VM de conserver ses attributs réseau en se déplaçant d'un serveur à un autre virtualisé sous vSphere. Le Cisco Nexus 1000V, qui peut jouer le rôle d'un vNetwork Distributed Switch, présente aussi l'avantage d'être administrable par les responsables réseau comme ils le font avec d'autres produits Cisco. La haute disponibilité grâce à des environnements virtualisés en miroir Parmi les autres améliorations apportées par vSphere, on notera VMware Fault Tolerant. Alors que HA (High Availability) de VI 3 permettait de relancer des VM en cas de défaillance, Fault Tolerant va un cran plus loin : il crée un environnement à tolérance de panne entre des configurations matérielles classiques (sans redondance ni cluster) en maintenant deux environnements virtualisés en miroir. Le volet le moins précis de l'annonce de vSphere est celui qui porte sur la sécurité. Même si le jeu d'API VMsafe est disponible depuis plusieurs mois, McAfee semble être le seul à proposer un produit finalisé. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |