Flux RSS

Cloud computing

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

904 documents trouvés, affichage des résultats 501 à 510.

< Les 10 documents précédentsLes 10 documents suivants >


(07/12/2010 13:29:09)

Nimbula Director, pour créer un cloud privé similaire à Amazon EC2

Nimbula, une start-up fondée par un développeur de l'Elastic Compute Cloud d'Amazon, Chris Pinkham, offre en téléchargement gratuit la version bêta de son logiciel pour créer des clouds de type Amazon protégés par le pare-feu de son entreprise. Nimbula Director permet de configurer automatiquement l'infrastructure matérielle d'un datacenter privé pour en faire une infrastructure de cloud se comportant à la manière d'un Amazon EC2. Grâce à sa capacité à s'intégrer à plusieurs hyperviseurs et systèmes d'exploitation, il permet aux développeurs et autres utilisateurs d'accéder à des machines virtuelles de serveurs et de stockage. Le logiciel gère également l'accès aux ressources d'un cloud public, offrant aux clients la possibilité d'adopter une approche hybride.

« Basé sur la technologie de 'Cloud Operating System' de Nimbula, le logiciel Nimbula Director fournit des services semblables à un Amazon EC2 à l'abri du pare-feu », explique la start-up dans un communiqué. Selon elle, Nimbula Director permet aux clients de gérer aussi bien les ressources sur site que celles situées hors site. La solution transformerait rapidement, et sans coût excessif, les datacenters privés, souvent figés, inefficaces et sous-employés, en une capacité de calcul facilement configurable, offrant aussi un accès contrôlés à des clouds hors site. Le logiciel gère les autorisations conformément à la politique de l'entreprise, ce qui permet la mise en place d'une architecture multitenant sécurisée bénéficiant d'une allocation dynamique des ressources de stockage. Nimbula Director permettrait également de réaliser des déploiements hautement automatisés et faciliterait la migration des applications existantes dans le cloud grâce à une compatibilité multiplate-forme. Il permet aussi de configurer la mise en réseau et le stockage de manière très flexible, indique encore le communiqué de l'éditeur.

Une dizaine de clients ont mis en oeuvre la bêta

C'est en 2008 que Chris Pinkham a créé Nimbula, avec Willem van Biljon, un ancien collègue d'Amazon. Auparavant, entre 2001 et 2006, c'est lui qui avait dirigé le développement du service EC2 d'Amazon. Récemment nommée par Network World comme l'une des 25 entreprises IT à surveiller, la start-up Nimbula est un peu sortie de sa confidentialité en juin de cette année. L'entreprise, qui compte Diane Greene, co-fondateur et ancien CEO de VMware, parmi les membres de son conseil d'administration, affiche à son actif « plusieurs grands clients internationaux dont les activités se situent dans les services financiers, la technologie et les industries de la santé ». Ils ont mis en oeuvre une version bêta privée de son logiciel. Cette version n'avait été confiée qu'à une dizaine de clients environ « afin de permettre une collaboration plus étroite avec les utilisateurs », comme l'a expliqué le vice-président du marketing Reza Malekzadeh, ancien dirigeant de VMware jusqu'en 2009 qui a rejoint Nimbula en avril 2010.

Nimbula Director est un peu en retard sur le planning puisque, lors de son lancement, la société avait indiqué que le produit serait disponible à l'automne 2010. D'abord reporté à la fin 2010, l'éditeur annonce aujourd'hui une sortie générale pour la première moitié de 2011. En attendant, la version bêta publique est disponible gratuitement en téléchargement sur le site Web de l'éditeur.

Illustration : Chris Pinkham, PDG et co-fondateur de Nimbula (crédit photo : Nimbula)
(...)

(07/12/2010 12:11:42)

L'ebookstore de Google entre en piste

"Grâce à ce service, les lecteurs peuvent découvrir et acheter des livres soit directement depuis l'eBookstore Google, soit via l'un des libraires indépendants, partenaire de Google. Quel que soit le moyen utilisé pour acheter les livres, ils sont tous stockés dans la bibliothèque en ligne du lecteur", précise le communiqué. Avec cette plateforme de vente de livres numériques, Google vient ainsi concurrencer la bibliothèque Kindle d'Amazon.

Ce service permet aux internautes d'acheter des livres auprès de la librairie de Google ainsi qu'à d'autres vendeurs en ligne. Les ouvrages seraient alors accessibles sur de nombreux supports informatiques comme les ordinateurs, les tablettes ou les téléphones. L'éditeur indique avoir numérisé plus de 15 millions de livres. Le projet de la firme de Mountain View est encore confronté à des obstacles juridiques dans les autres pays.

 

(...)

(06/12/2010 16:10:06)

Amazon Web Services lance Route 53 DNS

Progressivement, Amazon Web Services étoffe son offre cloud. Aujourd'hui, l'éditeur lance Route 53 en version bêta (en référence au port 53, attribué en général au DNS), une offre de serveur DNS disponible sur EC2, mais aussi sur S3 (capacité de stockage) d'Amazon. Ce mode hébergé est facturé à l'utilisation, en fonction du nombre de requêtes DNS traitées. Mais AWS annonce un package pour cette version bêta, 1 dollars par mois plus 0,50 dollars par million de requêtes, après le premier milliard de demandes. Le service Route 53 reprend les mêmes attributs qu'un serveur DNS traditionnel avec la création d'une zone hébergée, capable de gérer aussi bien les adresses IP V4 et V6.

Cette annonce intervient quelques jours après la décision d'Amazon de suspendre le site Wikileaks de son cloud EC2. Mauvaise publicité pour Route 53 ou gestion hasardeuse du marketing, il est probable que le site d'informations sensibles aurait souscrit à ce service.

(...)

(03/12/2010 16:50:06)

BMC s'offre GridApp Systems, pour gérer les bases de données dans le cloud

Le logiciel Clarity GridApp est déjà intégré à la plate-forme BladeLogic Automation Server de BMC. Il devrait aussi s'insérer dans les autres technologies de BMC comme la gestion des cycles de vie dans le cloud. Les capacités d'automatisation libèrent du temps et des ressources. Cette acquisition donne à BMC des produits d'automatisation de base de données de niveau international.

La plate-forme Clarity de GridApp est compatible avec Oracle, DB2 UDB, MySQL, Sybase et SQL Server, ainsi que les systèmes d'exploitation Linux, Windows, Solaris, HP-UX et AIX. Elle prend en charge les clusters de base de données comprenant Oracle RAC, Microsoft Cluster Server et Veritas. Elle peut également être utilisée pour gérer les bases de données sur les clouds publics, y compris Amazon EC2 (Elastic Compute Cloud) et Go Grid. Les clients de GridApp sont Bank of America, General Electric, Lockheed Martin et Merrill Lynch. La société a noué aussi des partenariats avec Hewlett-Packard, Quest Software, Oracle, IBM et Microsoft.

Avec ce rachat, BMC entend bien concurrencer les autres «Big Four» (CA, IBM, HP) des fournisseurs de systèmes de gestion. HP a en août dernier racheté le concurrent de GridApp,  Stratavia.

(...)

(03/12/2010 16:38:40)

Oracle défie IBM avec son Sparc SuperCluster

Baptisé Sparc Supercluster, le système annoncé par Oracle peut agréger dans un rack des dizaines de serveurs équipés de processeurs Sparc T3-2, T3-4 et Sparc64  (M5000) reliés entre eux via des liens InfiniBand sous le contrôle de l'application Oracle Real Application Cluster pour l'équilibre de la charge. Le CEO et fondateur d'Oracle, Larry Ellison, a présenté cette plate-forme lors d'une conférence au siège de la compagnie à Redwood. Mark Hurd, l'ancien patron de HP, récemment embauché par Larry Ellison pour l'aider à gérer la partie système d'Oracle, était également sur place pour détailler les nouveaux matériels.

Le Sparc Supercluster est destiné aux clients qui souhaitent déployer une très grande base de données sur un cluster Unix haute performance. « Vous pouvez commencer avec un seul serveur et mettre ensuite autant de serveurs que vous voulez, plus que vous n'en aurez jamais besoin », a déclaré Bob Shimp, vice-président chez Oracle en charge de la commercialisation des produits.

Mise à jour globale de la gamme serveurs Oracle/Sun

À cette occasion, Larry Ellison a également annoncé une nouvelle version d'Exalogic Elastic Cloud sur base Sun Sparc/Solaris, un ensemble de serveurs et middleware pour créer un cloud tout-en-un. Une version à base de processeurs Intel Xeon avait été précédemment lancée à OpenWorld en septembre dernier, ce modèle sera le premier chez Oracle à utiliser la plate-forme Sparc T3. Oracle dévoile également une mise à jour processeur pour les clients utilisant la série M, qui repose sur des puces Sparc64 fabriquées par Fujitsu. Plus rapides de 20% environ, les Sparc64 VII double coeur avec 12 Mo de mémoire cache niveau 2 affichent une vitesse d'horloge de 3 GHz, selon Bob Shimp.

Oracle ne donne pas encore de prix et annonce une date de disponibilité début 2011 pour son système Sparc Supercluster. Mais la compagnie ambitionne déjà de déloger l'IBM Power 780 du benchmark TPC-C de référence pour les solutions de type cluster. Une configuration avec 108 serveurs et 3 To de stockage a été évaluée à plus de 30 millions de transactions par minute, soit trois fois celle du système IBM, avance Bob Shimp. La performance a été publiée sur le site du TPC-C le 3 décembre.

Big Blue a reconnu la performance tout en indiquant que «  le bechmark a été réalisé avec un ensemble incroyable composé de 27 systèmes  - une approche extrêmement désordonnée qui n'est pas reproductible dans le monde réel, mais simplement conçue pour remporter un benchmark», a déclaré un porte-parole d'IBM. Oracle fournira « très bientôt », des détails sur les prix et les livraisons des nouveaux produits, a déclaré Bob Shimp.

Disponibilité début 2011

Oracle a travaillé d'arrache-pied pour remettre d'équerre les plates-formes matérielles héritées de Sun, qui ont pâti de la très longue attente avant l'approbation par les régulateurs de l'acquisition de Sun par l'éditeur. Malgré les doutes initiaux quant à l'engagement d'Oracle sur la vente de matériels, la publication d'une feuille de route de cinq ans pour Sparc et ces dernières annonces indiquent sans détour que l'éditeur semble maintenant déterminé à assurer l'avenir de la plate-forme Sun.

La stratégie d'Oracle consiste à vendre des grands systèmes préconfigurés, comme l'Exalogic Elastic Cloud et ses machines Exadata. Selon la compagnie, ces solutions sont plus performantes et plus faciles à mettre en place que lorsque les clients choisissent leurs propres plates-formes matérielles et logicielles.

[[page]]

L'approche d'Oracle est censée, mais on ne sait pas encore combien de clients vont adhérer à ce modèle, nous a expliqué Dan Olds, analyste chez Gabriel Consulting. Un des compromis nécessaires sera bien que les clients auront moins de latitude pour utiliser le meilleur dans chaque catégorie de produits, a-t-il ajouté.

Des équipements aux ressources communes

Le système cloud Exalogic, la machine Exadata et le nouveau Supercluster auront beaucoup de composants en commun ce qui pourrait créer des difficultés aux équipes commerciales et marketing d'Oracle chargées de vendre ces différents produits. Jean Bozman, analyste chez IDC, souligne à ce propos qu'ils sont configurés pour différents types de travaux. « Le système Exalogic se positionne comme un «cloud tout-en-un ». L'idée est que vous pouvez proposer différents services informatiques avec un management web, un serveur d'applications et garder la main sur une base de données. L'appliance Exadata a été conçue pour assurer le traitement de la base de données très importantes, transactionnelles et décisionnelles, bien plus importantes qu'avec un serveur traditionnel », dit-elle encore.

Jean Bozman estime que c'était le bon moment pour les clients Unix. Il y a beaucoup de concurrence sur les prix, parce que les vendeurs se battent pour conserver ou acquérir des parts de marché sur un segment globalement à la baisse, et chacun des grands fournisseurs a renouvelé ses systèmes Unix. Rappelons pour mémoire que le chiffre d'affaires sur le marché des serveurs Unix a diminué de 9% au troisième trimestre 2010 par rapport à l'an passé, et ce, même si les ventes globales de serveurs ont été bonnes avec une croissance de 13%, selon les derniers chiffres d'IDC. Entre l'entrée et le haut de gamme du marché Unix, les prix varient aujourd'hui de 25 000 à  250 000 $,  souligne encore l'analyste d'IDC. « Si vous désirez remplacer d'anciens systèmes Unix, vous pouvez obtenir beaucoup plus pour le même budget. La concurrence est intense en ce moment », dit-elle.

 

(...)

(03/12/2010 15:15:18)

Le Syntec Numérique se penche sur la sécurité du cloud

Psychologique ou réelle, la peur sur la sécurité du cloud effraye les responsables et reste le premier obstacle à son adoption. Conscient de ce problème, le Syntec Numérique, après un premier livre blanc, vient de se pencher sur ce sujet crucial en essayant d'y apporter des réponses. Le fascicule recense tout d'abord l'ensemble des problématiques sécuritaires associées au cloud computing. On peut citer ainsi, quels types d'informations sont accessibles dans le cloud ? Qui peut y accéder et comment sont-elle isolées ? Qui dispose de droit pour envoyer et recevoir des données sensibles ? Le livre blanc répertorie ainsi 9 risques : la perte de maîtrise, des déficiences au niveau des interfaces et des APIs, la conformité, la localisation des données, la ségrégation/isolement des environnements, la perte et destruction maîtrisée des données, récupération des données, malveillance dans l'utilisation et enfin usurpation.

Pour le Syntec Numérique, les mesures à mettre en place sont de 3 ordres, la sécurité physique (contrôle d'accès (système à clé, cartes, digicode), redondance matérielle, résilience), la sécurité logique (protection des serveurs virtuels, une colocation sécurisée (avec les risques du multi-tenants), une segmentation réseau, une interface d'administration protégée). Enfin, le troisième élément est la sécurité des données, avec la responsabilité juridique de la sécurité et de la confidentialité des données dans le cloud, la protection, la récupération, l'intégrité, le chiffrement, l'accessibilité des données aux autorités d'un autre pays et la réversibilité des contrats cloud. Le livre blanc du Syntec Numérique apporte donc des réponses aux inquiétudes des responsables IT encore réticents à migrer certaines activités dans le cloud. Il sera sans doute nécessaire d'évangéliser encore sur les bienfaits du cloud versus les risques ou les menaces.

(...)

(03/12/2010 11:48:53)

Tribune de Michel Simion : Peut-on se passer d'un SLA pour le cloud ?

La popularité croissante du cloud computing comme puissante alternative au modèle classique des services informatiques amène, une fois encore, à se pencher sur la gestion des performances applicatives. Qu'il s'agisse pour une entreprise de créer un cloud privé ou pour un prestataire de fournir des services de cloud publics, force est de constater que la médiocrité des performances entame immédiatement la confiance du client, freine l'adhésion des utilisateurs et a une incidence sur les résultats de l'entreprise. En effet, les applications internes et externes doivent faire l'objet d'une gestion intégrée de bout en bout au sein de l'infrastructure de cloud qui les héberge, et pas seulement au niveau du centre de données. Plus précisément, le cloud computing nécessite de redéfinir précisément le contenu d'un contrat de niveau de service (SLA) dans ce nouvel environnement.

Dans sa forme simplifiée, le cloud computing facilite l'accès aux informations pour les employés, les partenaires ou les clients. Ces informations doivent être accessibles en tout lieu, à tout moment et sur n'importe quel équipement, ce qui requiert une gestion efficace des applications de cloud. Le problème avec ces applications, c'est qu'elles sont hébergées en dehors du centre de données classique, ce qui place les responsables informatiques face à un nouveau défi : comment respecter un contrat de niveau de service lorsqu'un incident se produit sur une application de cloud hébergée hors de l'entreprise et par conséquent en dehors de tout contrôle, alors que personne ne parvient à en identifier la cause ni à trouver une solution ?

Lire la suite de cette tribune sur notre blog experts

(...)

(02/12/2010 13:11:26)

Jitterbit réplique les données de Salesforce vers EC2 d'Amazon

Les clients de l'application hébergée Salesforce vont pouvoir répliquer plus facilement leurs données en temps réel vers le cloud d'Amazon en passant par le service annoncé hier par Jitterbit, éditeur californien spécialisé dans les solutions d'intégration de données en Open Source. Salesforce.com propose lui-même des outils d'exportation de données, mais ses utilisateurs ne les trouvent pas pratiques, si l'on en croit Ilan Sehayek, directeur technique de Jitterbit. Il explique que le service CloudReplicate fourni par sa société met à jour dynamiquement le schéma de la base de données sur EC2 au fur et à mesure que l'information est modifiée dans le cloud de Salesforce.com. L'intervention de l'entreprise s'en trouve réduite. C'est important, estime-t-il, dans la mesure où les clients de Salesforce.com ajustent sans cesse leur modèle de données.

L'un des premiers utilisateurs du service fait écho aux propos d'Ilan Sehayek. Il s'agit d'AWPRx, une société de 25 personnes qui édite un logiciel pour gérer la compensation entre pharmacies et compagnies d'assurance. Son PDG, Jay Roy, explique que son entreprise utilisait déjà EC2 pour stocker ses données. Il juge que l'automatisation apportée par CloudReplicate constitue une amélioration importante, « énorme », et de loin préférable au processus manuel antérieur, très consommateur en ressources humaines et « qui ne fonctionnait pas comme nous le voulions », explique-t-il. Sa société utilise les données sur EC2 en combinaison avec les outils de Business Intelligence de Pentaho pour générer les rapports dont elle a besoin. Des rapports qu'il est beaucoup trop compliqué de produire avec Salesforce, selon Jay Roy.

Des concurrents tels que Boomi et Cast Iron Sytems


A l'instar d'un nombre croissant d'entreprises, AWPRx a troqué ses systèmes installés en interne pour un ensemble de services dans le cloud. L'éditeur n'utilise plus de serveurs dans ses locaux. Il est passé de l'application qu'il avait développée en Java à la solution de Salesforce.com. De la même façon, il a lâché son contrat d'hébergement négocié avec Rackspace pour passer sur EC2.

Jitterbit concurrencent des acteurs comme Boomi, acquis par Dell début novembre, et Cast Iron Systems, racheté par IBM en mai dernier. Ses clients utilisent déjà ses outils pour synchroniser les données de Salesforce avec leurs applications internes, rappelle son PDG Ilan Sehayek. Le nouveau service proposé pour Amazon EC2 leur donne une autre option et ne crée pas de « choc de culture » puisque ces entreprises travaillent déjà avec des solutions SaaS (software as a service), fait-il remarquer.

Le tarif du service CloudReplicate est fixé à 899 dollars par mois. Il s'incrémente en fonction du volume de données et du nombre de processus associés qui sont concernés. L'offre supporte actuellement MySQL, SQL Server et les bases de données d'Oracle. Jitterbit indique qu'il prévoit de cibler d'autres applications SaaS, mais sans autre précision pour l'instant. Il n'y pas de raisons techniques pour que ce service ne puisse pas fonctionner, d'une façon ou d'une autre, avec des concurrents d'Amazon EC2 tels que Rackspace, a ajouté Ilan Sehayek.

Illustration : Solution CloudReplicate (source : Jitterbit)
(...)

(02/12/2010 12:59:14)

Le cloud attire les cyber criminels

Lors d'un discours qu'il a prononcé à Sydney à l'occasion de la conférence annuelle de l'Association internationale des professionnels de la Sécurité Privée (International Association of Privacy Professionals), le ministre australien de l'Intérieur et de la Justice, Brendan O'Connor, a déclaré que les organisations criminelles exploitaient de plus en plus les services en ligne pour atteindre leurs propres objectifs. « Les cybercriminels ne cherchent pas seulement à voler des informations hébergées dans les clouds, ils peuvent aussi y cacher des données, » a-t-il fait savoir. À titre d'exemple, il a cité le cas de fournisseurs de services basés dans des pays peu regardant en matière de cybercriminalité « qui peuvent offrir des hébergements et des services de stockage confidentiels, facilitant ainsi le stockage et la distribution de données criminelles, à l'abri de toute détection par des organismes chargés d'appliquer la loi. » Par exemple, les cybercriminels peuvent utiliser le cloud secrètement pour stocker et vendre du matériel pédopornographique. « Les cybercriminels ont le pouvoir de contrôler les serveurs de ces clouds : ils peuvent empêcher l'accès d'utilisateurs légitimes à des sites web et cibler des sites pour y diffuser des messages ou des images de manière répétée, » a-t-il expliqué. 

« Certains pensent également que les clouds peuvent être détournés pour servir de base au lancement de cyber attaques, y compris en utilisant la puissance de calcul des clouds pour casser les données chiffrées après avoir testé toutes les combinaisons de mots de passe possibles. » Selon le dirigeant, l'attaque, fin 2009, contre Google et plusieurs autres entreprises, a rappelé combien les systèmes et les données étaient vulnérables. « L'attaque, qui consistait aussi à pirater les mails de personnes ciblées, a montré la particulière vulnérabilité des informations personnelles et des échanges privés dans l'espace en ligne » a-t-il déclaré. Selon lui, la transparence et la confiance entre les fournisseurs de services cloud, les entreprises et les organismes gouvernementaux, permettraient de limiter les risques posés par la cybersécurité.

Attention à la sécurité des clouds

Pour montrer l'exemple, le gouvernement australien a décidé de s'appuyer sur l'unité High Tech Crime Unit de la Police fédérale australienne (AFP) qui a mis en place un système de traçage développé par CrimTrac pour repérer les matériels pédopornographiques. « Après une large consultation menée auprès du gouvernement, l'Australian Government Information Management Office (Agimo) enquête actuellement sur un certain nombre de questions, comme la vulnérabilité des systèmes de stockage de données offshore; les questions juridiques relatives à l'extra-territorialité en matière de conformité et de vie privée, et les aménagements contractuels nécessaires pour atteindre des niveaux de sécurité appropriés,» a déclaré le ministre. «Parce que les fournisseurs de services cloud ne sont pas interchangeables, les difficultés inhérentes à permuter entre les fournisseurs devront également être prises en compte, avec la possibilité de récupérer les informations en cas de catastrophe ou de défaillance du vendeur. »

En outre, pour les gouvernements, les risques de sécurité ou de confidentialité peuvent être augmentés dans le cas où le cloud héberge des clients indépendants, et partage entre eux du matériel et des ressources logicielles, sans compter que la concentration des ressources et des données en un seul lieu représente en soi une cible de choix pour les cybercriminels. «Étant donné les avantages du cloud computing, et pas seulement pour les entreprises, mais aussi pour les gouvernements et les particuliers, il est impératif de travailler ensemble sur ces enjeux afin de pouvoir profiter pleinement de tout ce que le cloud computing a à offrir», a conclu Brendan O'Connor. Ces déclarations vont dans le même sens que la mise en garde faite au mois de novembre par l'Australian Prudential Regulation Authority (APRA). Celle-ci avait publié une lettre ouverte mettant l'accent sur la nécessité de bien apprécier les risques liés à tout type d'externalisation et de délocalisation, y compris dans le cloud computing.

(...)

< Les 10 documents précédentsLes 10 documents suivants >