Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 381 à 390.
| < Les 10 documents précédents | Les 10 documents suivants > |
(30/03/2011 12:08:26)
L'EPITA se penche sur la sécurité du cloud
Le cloud computing est-il un renoncement à la confidentialité ? La question mérite d'être régulièrement posée et c'est ce qu'a fait l'école d'ingénieurs Epita au cours d'un colloque le 24 mars 2011. Une table ronde réunissait ainsi (de gauche à droite sur la photo) : Sylvain Thiry (RSSI de la SNCF), Patrick Langrand (directeur de la gestion des risques IT de La Poste), Nicolas Arpajian (journaliste animateur), l'Amiral Michel Benedittini (directeur général adjoint de l'ANSSI) et Sébastien Bombal (RSSI d'Areva, enseignant à l'Epita).
« Quand on ne maîtrise pas son système d'information, en cas d'externalisation notamment, il est difficile de savoir si l'hygiène informatique, cet ensemble de règles et de bonnes pratiques pour se prémunir des risques, est bien respecté » a souligné l'Amiral Michel Benedittini. Il a dénoncé l'opacité des contrats de la plupart des fournisseurs de prestations de type cloud et la régulière absence de clauses de niveau de service et de sécurité. Si certains très grands comptes peuvent négocier ces clauses, c'est absolument exclu pour les PME. « Même des dizaines de milliers d'utilisateurs ne permettent pas toujours de négocier » s'est offusqué Sébastien Bombal.
Où sont les nuages ?
Or l'une des questions posée par le militaire a aussi des répercutions en terme de conformité légale aux dispositions dites « informatique et liberté » : selon l'endroit où seront les données « cloudifiées », le gouvernement local ou ses services peuvent-ils accéder aux données et le cas échéant, comme cela s'est déjà vu, les transmettre à ses propres industriels nationaux ? L'Etat compte, pour répondre à cette problématique sans se priver des avantages du cloud, fabriquer un « cloud de confiance », avant tout pour ses propres usages.
Comme il est impossible de dire systématiquement « non » au cloud, le recours à des clouds privés ou soigneusement sélectionnés parmi des opérateurs strictement nationaux peut être aussi une solution. Enfin, il est aussi possible de ne mettre dans le cloud que des traitements et des données non-sensibles sur le plan stratégique et de conserver sur des plate-formes traditionnelles ce qui doit être strictement contrôlé.
Les métiers dans les nuages et le brouillard
Pour Sylvain Thiry, l'émergence du cloud a radicalement modifié la perception de la sécurité pour trois raisons principales. Tout d'abord, les prestations de type cloud et notamment SaaS sont de plus en plus souvent gérées directement par les directions métier utilisatrices et plus par la DSI. Or les DSI sont habituées à gérer les questions de sécurité, pas les métiers. Le RSSI doit donc de nouveau prendre son bâton de pèlerin.
Ensuite, le cloud est très attractif et l'interdire ou le limiter est compliqué car le recours à ce modèle implique une absence de rigidité : la direction métier peut tester, utiliser ou arrêter quand elle veut le recours à un tel service sans le moindre investissement. C'est le triomphe de l'Opex sur le Capex. Enfin, le cloud étant par définition une vaste ressource mutualisée très souple, la traçabilité de ce qui s'y passe est quasiment nulle.
Face à la pression des utilisateurs qui peuvent être du comité exécutif, trois attitudes sont possibles pour le RSSI selon Sylvain Thiry. « Dire non systématiquement parce que le cloud est trop risqué, c'est dangereux pour sa carrière » reconnaît-il. Mais, comme il l'indique aussitôt, « le oui mais, plus confortable a priori, est souvent en fait un non déguisé : l'analyse de risque par le RSSI, le CIL, le service juridique, les acheteurs, etc. va prendre du temps et coûter cher. Les éventuelles économies et les gains attendus de souplesse seront alors rapidement anéantis. »
[[page]]
Il reste donc au RSSI à anticiper les demandes nouvelles en termes de cloud. Les données non-sensibles sur le plan stratégique peuvent bien être hébergées sur le cloud, ce qui inclut pour Patrick Langrand des données sensibles psychologiquement comme la paye, externalisée dans bien des entreprises depuis des années. Une solution peut aussi être de chiffrer ce qui est cloudifié mais ce n'est pas forcément une solution satisfaisante ou toujours possible.
« Le plus grand risque, c'est que les directions métiers utilisent le cloud sans même avertir le RSSI ou le DSI » soupire Sylvain Thiry tout en reconnaissant qu'un « serveur local n'est pas nécessairement plus sécurisé qu'un cloud confié à une armée de spécialistes ». Mais, après tout, comme il en convient, « le risque est associé au processus et a donc le même propriétaire : le métier. Le RSSI est un sensibilisateur et un informateur, pas un décideur. »
Une ouverture de plus
Pour Patrick Langrand, la question de départ est presque sans pertinence : « si on s'oppose au cloud, le métier vous mettra dehors. » C'est d'autant plus vrai que le discours du DSI sera incompréhensible tandis que les prestataires de cloud ont fabriqué un discours marketing destiné aux décideurs métier.
Le véritable problème, selon lui, n'est pas le cloud en lui-même mais le quasi-monopole des Etats-Unis en la matière : « les Etats-Unis n'hésitent pas à pratiquer le protectionnisme des données mais pas l'Europe. Il est essentiel de développer des acteurs locaux de cloud. » Sébastien Bombal se veut, lui, plus rassurant : « l'entreprise étendue est un fait depuis des années et tout projet se fait avec des partenaires extérieurs. Le cloud n'est finalement qu'une ouverture de plus. »
Il y a cependant des pièges. L'économie affichée par certains prestataires n'est pas toujours aussi évidente. Ainsi, aucune entreprise ne peut entretenir une boîte mail pour deux euros par mois mais un tel coût proposé par des prestataires dans le cloud n'inclut pas l'assistance utilisateurs qui reste en interne. Surtout, comme toute externalisation, entrer dans le cloud est facile, perdre de la maîtrise plus encore, et revenir en arrière (même pour changer de prestataire) loin d'être simple, les équipes internes pour procéder à la manoeuvre ayant été supprimées.
Du matériel dédié et localisé désormais disponible dans le cloud d'Amazon
Elastic Compute Cloud (EC2) d'Amazon utilise la virtualisation, basée sur une version personnalisée de l'hyperviseur Xen, pour faire tourner plusieurs OS et des applications clients sur une seule machine physique. Mais, ce mode de gestion de l'infrastructure informatique ne convient pas à tous les utilisateurs, notamment ceux qui doivent respecter des restrictions réglementaires ou autres nécessitant un isolement physique, comme le fait remarquer le communiqué publié sur le blog d'Amazon. Celui-ci indique par ailleurs que la mise à disposition d'instances dédiées ou Dedicated instances vise à répondre à ces besoins.
Les instances feront partie du service Cloud Privé Virtuel (VPC) d'Amazon, récemment mis à jour pour bénéficier de meilleures fonctions réseau. Au moment de la configuration du VPC, les administrateurs peuvent mettre en place soit un cloud privé composé uniquement d'instances dédiés ou bien un cloud comprenant un mélange d'instances classiques et dédiées, selon les exigences de l'application, indique Amazon. Les utilisateurs n'ont aucun contrôle sur la manière dont sont gérées les instances dédiées, à savoir si elles tourneront sur un même matériel ou si elles seront réparties sur plusieurs machines. Mais Amazon a déclaré faire en sorte de privilégier la répartition afin de réduire les effets que pourrait entraîner une éventuelle défaillance matérielle.
Un léger surcoût
Le prix pour bénéficier d'instances dédiées comprend deux types de frais : un tarif horaire « par instance » et une « taxe par région ». Les frais liés à la localisation sont de 10 dollars de l'heure quel que soit le nombre d'instances en cours d'exécution par une entreprise dans la dite région. Les frais d'utilisation dépendent de la région où l'instance est en cours d'utilisation, son niveau de performance et le système d'exploitation impliqué. Par exemple, une instance de grande taille pour faire tourner Suse Enterprise Linux en Caroline du Nord coûte 0,54 dollar de l'heure.
Les utilisateurs d'AWS peuvent également choisir un règlement unique pour chaque instance, en contractant un abonnement sur un ou trois ans. En retour, ils peuvent bénéficier d'une réduction sur le taux horaire. Les entreprises qui ont besoin d'instances régulières ne payent alors que les frais d'usage, ce qui est légèrement moins onéreux que le tarif payé par les utilisateurs d'instances dédiées. Ces derniers ont également plus de liberté pour choisir les instances et la région dans laquelle ils souhaitent opérer. Selon le blog d'Amazon, les frais liés à la localisation se justifient par le fait que l'entreprise ne sera pas en mesure d'utiliser le matériel dédié de manière aussi rationnelle.
Selon Niklas Zandelin, PDG de la société de recherche en marketing Exido, le fait de permettre aux entreprises de faire tourner des applications sur du matériel dédié peut aller à l'encontre de l'idée que l'on se fait des services cloud et de la virtualisation. « Pour Amazon cependant, c'est un moyen de mettre ses services à la portée d'un plus grand nombre d'entreprises, » a t-il expliqué. Pour la plupart des entreprises, le déplacement d'une activité vers le cloud est toujours un processus évolutif. En leur permettant d'utiliser un matériel dédié, Amazon pourrait attirer et engager les clients plus tôt dans ce processus.
HP Technology Work à l'heure du cloud et de la convergence
« Le cloud est un voyage, il ne faut pas y aller d'un coup, mais progressivement », souligne Xavier Poisson-Gouyou Beauchamps, directeur commercial converged infrastructure pour la zone EMEA. L'édition 2011 du HP Technology Work est résolument orientée vers le cloud avec deux axes. Le premier à destination des clients. « HP propose plusieurs outils pour accompagner l'entreprise dans sa migration et la transformation de son datacenter », précise le dirigeant et de lister les solutions de type Cloud System comprenant les outils Blade Matrix auxquels s'ajoutent des services d'automatisation. Il a parlé aussi de Cloud Map, un programme pour aider l'intégration du patrimoine applicatif au sein du cloud. « Nous avons travaillé avec les principaux éditeurs de logiciels pour fournir des guides de bonne pratiques, l'offre va s'étoffer avec le temps » confie Xavier Poisson Gouyou Beauchamps. Bien entendu, le voyage proposé par HP repose à la fois sur des standards pour apporter de l'interopérabilité, mais aussi sur la sécurité, pilier essentiel des services proposés.
Il rappelle pour ceux qui s'interrogent sur la pertinence du choix d'HP que sur les 10 plus grands fournisseurs de cloud dans le monde, 7 utilisent les outils de la marque. Par ailleurs, pour les indécis, il cite plusieurs analyses qui prédisent que 20% de l'utilisation des ressources IT se feront en externe d'ici 2012.
Mise au point et unification des évènements
Ce rendez-vous était aussi l'occasion pour les responsables d'HP et Intel de réitérer la position officielle des deux sociétés à continuer à travailler sur l'architecture Itanium. La semaine dernière, Oracle a annoncé la fin du développement logiciel, middleware pour cette plate-forme, provoquant ainsi quelques inquiétudes pour les entreprises. Pascal Nègre, PDG d'Intel France s'est voulu rassurant en montrant la roadmap sur 10 ans des puces Itanium. Il a également indiqué que la prochaine offre Xeon, baptisée E7 comprenant de 1 à 8 sockets serait disponible la semaine prochaine.
En parallèle de ces mises au point, cette édition Tech Work va laisser dans les prochains mois la place à un évènement plus global nommé Discover. Deux versions sont attendues, la première à Las Vegas du 6 au 11 juin 2011 et la seconde à Vienne du 29 novembre au 1er décembre 2011. L'objectif est de regrouper sous le même giron, l'aspect infrastructure, service, partenaire éditeurs. La convergence se déroule aussi sur l'aspect évènementiel, mais elle est symbolique de cette évolution de l'IT.
Sage s'essaye au SaaS progressivement
Resté longtemps frileux sur le sujet, Sage engage une stratégie mondiale sur le Saas (software as a service). Annoncée depuis quatre mois en interne, celle-ci reste encore prudente. Elle repose sur la mutualisation des développements assurés dans un pays et réutilisables dans d'autres grâce à la technologie Sdata de Sage (**). Chaque pays évoluant ensuite à son rythme au plan commercial. La comptabilité en Saas par exemple, déjà engagée en Grande-Bretagne avec la solution SageOne, ne le sera pas tout de suite en France, le marché n'étant pas jugé suffisamment mûr.
Sage France conduit une stratégie en deux volets, d'un côté des « add on » en ligne, de l'autre des solutions de gestion complète. Dans le premier cas, il s'agit de modules, ce que Sage appelle des « services connectés », de l'autre des « solutions de gestion », soit pour TPE, soit pour ETI (entreprises de taille intermédiaire), par exemple une comptabilité ou une gestion des ressources humaines. Les services connectés sont des fonctionnalités complémentaires pour des clients de Sage possédant déjà des solutions sur site. Les services de gestion sont des solutions complètes pour des créateurs d'entreprise ou des PME de taille importante.
Sur le premier point, les services connectés, Sage France propose par exemple un fichier prospects et une solution de génération et de suivi de commandes pour compléter le logiciel de CRM Act ! Autres exemples : la visualisation en temps réel sur un smartphone des compteurs d'activité de l'entreprise (encours clients, portefeuille de commandes en cours), l'interfaçage d'un site de e-commerce avec la gestion commerciale Sage, le passage de déclarations fiscales ou sociales en ligne (en complément du logiciel de Sage directDéclaration). « On amène ainsi des services en ligne sur le poste client et on propose à nos utilisateurs des fonctionnalités nouvelles », souligne Antoine Henry.
La paye en SaaS pour les TPE
Quant aux solutions complètes de gestion, Sage France propose déjà Ciel e-service Paye pour gérer la paye avec une facturation au bulletin de salaire. Ce logiciel est destiné aux entreprises de moins de 20 salariés, plutôt des entreprises jeunes, peut-être venues à l'environnement Sage par le logiciel « auto-entrepreneur ». Sur 1 200 000 entreprises de moins de 20 salariés, 300 000 seulement sont équipées d'un logiciel de gestion. Le Saas sera peut être un moyen de leur faciliter le passage à la gestion informatisée, espère Antoine Henry.
Les entreprises de taille plus importante se voient proposer leurs logiciels habituels, Sage 100, FRP Treasury, Transport, en mode Saas et par les partenaires en indirect. L'éditeur a également mis au point une approche hybride. Dans ce cas, son client peut utiliser le même logiciel, soit dans la formule traditionnelle, soit dans une formule en Saas pour certains de ses utilisateurs. Deux produits sont actuellement concernés : Sage 100 Entreprise Etendue et Sage SalesLogix (CRM vendu aux Etats-Unis).
Sage a réalisé 315 millions d'euros de chiffre d'affaires l'an passé en France, en progression de 3%. Sur ce total, 10 millions d'euros venaient du Saas. En 2009, selon Pierre Audoin Consultants, l'éditeur britannique Sage réalisait 80 millions d'euros dans le monde dans le domaine du Saas. C'était le premier éditeur en Saas, devant son compatriote Misys (74 M€), Linedata Services (38 M€), SAP (14 M€) et Cegid 12,5 M€. Les chiffres 2010 sont en cours d'enquête.
(*) En remplacement de Pascal Houillon, parti diriger l'Amérique du nord.
(**) http://sdata.sage.com/sdatacore_covers.html
Des microserveurs Dell PowerEdge avec puces Intel ou AMD
Pour effectuer plus efficacement des transactions que les serveurs traditionnels - performants, mais gourmands en énergie - Dell lance des serveurs PowerEdge basse consommation qui peuvent être relié ensemble très rapidement. De type monosocket, les PowerEdge C5220 et C5125, également appelés « microserveurs » par Dell, partagent un grand nombre de composants dans un châssis très dense et particulièrement coalescent afin d'assurer de meilleures performances par watts que les serveurs traditionnels, selon les dirigeants de l'entreprise texane.
Ces PowerEdge sont conçus pour les clients qui cherchent solutions pour leurs plates-formes d'hébergement web, des serveurs d'impression ou dédiés au partage de fichiers, a expliqué Deania Davidson, directeur du marketing produit chez Dell. Ce dernier a souligné que ces serveurs sont particulièrement bien adaptés à l'hébergement web, pour aider les fournisseurs à déployer des solutions dédiées et des services d'hébergement mutualisé tout en respectant les contraintes d'alimentation électrique et d'espace d'un datacenter.
Un marché déjà défriché avec des puces Via Nano
La division Data Center Solutions de Dell proposait déjà un serveur basé sur des processeurs Via Nano mais les nouveaux serveurs sont bien plus puissants même s'ils reposent sur des puces Intel Xeon Sandy bridge basse consommation (32 nm). Le PowerEdge C5220 est animé au choix par un Xeon E3-1260L (quatre coeurs à 2,4 GHz) ou Xeon E3-1220L (deux coeurs à 2,5 GHz), qui consomment respectivement 45 et 20 watts.
Ces puces ne sont pas des Xeon au rabais, car ils intègrent les fonctionnalités traditionnellement réservées aux processeurs pour serveur, à savoir le support des instructions 64 bits, les algorithmes de correction d'erreurs mémoire et l'accélération matérielle de la virtualisation. Les C5125 PowerEdge seront quant à eux livrés avec des processeurs AMD Phenom ou Athlon avec double ou quadruple coeur.
Un marché très prometteur pour Intel
Les serveurs Dell sont les premiers à utiliser les puces Xeon E3-1200 dévoilées la semaine dernière lors d'un événement où le fondeur de Santa Clara a exposé sa stratégie. Selon Jason Waxman, en charge de l'activité serveurs haute densité, dans « dans les quatre à cinq prochaines années, les microserveurs pourraient représenter pour Intel jusqu'à 10% du marché des serveurs. De nombreux acteurs sont intéressés par ces plates-formes, notamment les hébergeurs de plates-formes jeux en réseau. »
Ces machines partagent un grand nombre de composants tels que les alimentations, les ventilateurs et les cartes réseau à l'intérieur d'un châssis 3U particulièrement dense. L'armoire rack Dell C5000, qui affiche une hauteur de 44,8 centimètres (17,6 pouces) et une profondeur de 75 cm, peut accueillir de 8 à 12 noeuds PowerEdge C5220 ou C5125 monosocket.
Core i3 en attendant les Atom dual core
Pour proposer un produit d'entrée de gamme en attendant l'arrivée en 2012 des puces Atom double coeur 64 bits (N570) très basse consommation (10 watts), le PowerEdge C5220 pourra également être livré avec un processeur double coeur Intel Core i3-2120, qui consomme jusqu'à 65 watts. Ce serveur supporte jusqu'à 32 Go de mémoire et 4 To d'espace de stockage avec des disques SATA ou 2,4 To en SAS. Dell a déclaré que cette machine sera disponible la fin du mois de mai partout dans le monde, mais ne pouvait pas fournir immédiatement de prix.
Le PowerEdge C5125 livré avec des puces AMD supporte jusqu'à 16 Go de mémoire et jusqu'à 4 To de stockage en SATA. Le serveur sera disponible d'ici la fin du mois d'avril. Son prix n'est pas encore divulgué. Les systèmes d'exploitation disponibles pour tous ces serveurs incluent sans surprise MS Windows Server, Novell Suse Linux Enterprise Server 11 et Red Hat Enterprise Linux 6.0.
IBM multiplie les initiatives dans le domaine de l'eau
Au coeur des débats, des conflits et plus récemment des catastrophes naturelles, l'eau est aussi bien source de vie, que vecteur de désastre important. Pour prévenir, anticiper et améliorer, IBM a choisi cette ressource pour apporter son expertise informatique autour de 3 thèmes, les mers, les fleuves, les rivières (avec la surveillance de la qualité des eaux et autres indicateurs) ; les infrastructures (barrage, digues, tuyaux) et enfin les usages dans la ville via les compteurs intelligents, mais aussi des capteurs pour les fuites. Sur ces axes de travail, IBM a conçu des centres d'excellence, dont 3 sont en Europe, Olivier Hess est responsable de celui de Montpellier. « Le premier à avoir été créé est celui d'Amsterdam à la fin 2006 où IBM et d'autres partenaires ont travaillé sur la gestion intelligente des digues, comment éviter ou prévenir les risques de fissures ou plus graves de digues qui cèdent » explique-t-il. Un autre centre à Dublin s'intéresse quant à lui à la problématique de l'eau dans son environnement. Ainsi la baie de Galway en Irlande s'appuie sur un système de capteurs, qui récupèrent un grand nombre d'informations en temps réel sur l'état de l'eau, et sur des portails qui en publient l'analyse.
Une utilisation prédictive du HPC
Et Montpellier ? Le petit nouveau, comme le surnomme Olivier Hess, « est en charge de la modélisation des fluides. Nous utilisons le HPC (le calcul haute performance) pour anticiper un phénomène comme les inondations ». Concrètement, l'objectif est qu'en cas d'alerte météo, les autorités publiques (préfets, mairies, etc) disposent d'une évaluation des risques encourus et puissent ensuite prendre certaines décisions (évacuations, informations aux citoyens, organisation des secours). « Nous travaillons pour que cette évaluation soit la plus rapide possible, la décision doit se prendre en général entre 6 et 12h après les alertes » rapporte Olivier Hess en avouant « que les premiers tests ne donnaient que des résultats en quelques...jours ». Interrogé sur une éventuelle utilisation du cloud comme support pour améliorer et accélérer ses prévisions, le responsable reste pragmatique « c'est un axe de travail possible, mais en ce qui concerne nos recherches, nous préférons utiliser un cluster dédié à 100% ». Par contre, les 3 centres d'excellence ne vivent pas en circuit fermé et les découvertes des uns profitent aux autres. « Quand des digues se rompent, nos recherches sur la modélisation des fluides pourront apporter des réponses » rappelle Olivier Hess. Idem pour l'expérience menée à Dublin dans la baie de Galway, où prévisions et mesures pourront anticiper les risques de pollution du milieu marin en cas de forte pluie. Le champ d'investigation est donc important pour les ingénieurs d'IBM.
RIM mise sur Office 365 pour son offre cloud à destination des entreprises
RIM a fait cette annonce sur son blog à destination des entreprises. Le service, qui devrait être disponible en bêta à la mi-2011, aura des caractéristiques similaires à celle du BlackBerry Enterprise Server Express, selon RIM, et sera d'abord disponible pour Exchange Online d'Office 365.
Dans le cadre de l'accord entre les deux sociétés, Microsoft a modifié le prix standard de son offre initiale reposant sur Business Productivity Online Suite (BPOS). Le prédécesseur d'Office 365 était à 10 dollars par mois. Avec le partenariat, il n'y aura plus d'abonnement à condition pour les entreprises d'être affiliées à un BlackBerry Service.
Pour les responsables IT, cette évolution ne modifie pas leurs outils d'administration. Ainsi, ils peuvent utiliser la technologie BlackBerry Balance, capable de distinguer les données d'ordre privé et celles issues du cadre professionnel. Ils pourront aussi créer plus facilement des groupes d'utilisateurs, installer des règles spécifiques pour les terminaux, ...
Du côté des utilisateurs, RIM indique qu'ils auront plus de services à la demande et disposeront d'un plus grand contrôle. Ils pourront ainsi réinitialiser leur mot de passe en cas d'oubli ou effacer la mémoire du terminal si il est perdu ou volé.
Cette initiative de la part de RIM et Microsoft est aussi une réponse au développement des Google Apps au sein des terminaux Android.
ExtremeLabs a testé vCloud Connector
Dans une configuration classique de cloud sous VMware, vous vous reposez sur des hyperviseurs ESX et vous aurez besoin d'exporter les machines virtuelles vers un emplacement temporaire, puis les importer dans un autre cloud. Vcloud Connector permet de réaliser cette démarche en une seule fois. La solution gère l'ensemble des clouds comme une appliance et accomplit la tâche de déplacer une machine virtuelle (VM) d'un cloud à l'autre sans phase intermédiaire.
Tom Henderson et Brendan Allen, deux chercheurs de la société ExtremeLabs, ont installé une machine virtuelle dans leur infrastructure cloud VMware, puis ont ajouté le plug-in. Voici leur retour d'expérience. Sans rien faire d'autre qu'un clic droit sur « VM asset objects», nous avons déplacé plusieurs éléments des VM depuis notre NOC (Network Operation Center)de nFrame en utilisant quelques instances vCloud qui ont été allouées auprès de BlueLock, un service d'hébergement cloud basé à Indianapolis. Les entreprises gardent généralement plusieurs instances et les activent en fonction de leur besoin (et du coût). Nous avons demandé aux personnels de BlueLock si nous pouvions avoir quatre vClouds distincts, chacun avec des instances capables de supporter une allocation standard de deux processeurs virtuels, quelques disques et un peu de mémoire. D'un clic droit les machines virtuelles sont transférées vers la destination cible. Dans notre cas, le déplacement s'est déroulé sans problème comme en situation de laboratoire.
Pour les besoins du test, nous nous sommes connectés à I-Land Internet Services, un autre fournisseur de vCloud, auquel nous avons acheté quelques instances. Nous l'avons provisionné de manière identique. Après avoir installé le plug-in, nous avons commencé à déplacer les machines virtuelles dans les clouds, sans problèmes comme si elles étaient à l'intérieur du laboratoire ou chez
nFrame.
Vademecum et critiques
L'installation de VCC est très simple. Il suffit d'un PC sous Windows avec au moins Internet Explorer 7 et vSphere dans une version 4.X. Deuxièmement, nous avons téléchargé un fichier OVF qui contient l'appliance virtuelle. Une fois importé dans notre infrastructure, nous avons lancé l'installation de VM, la connexion réseau, des identifiants et des mots de passe. Ensuite, nous raccordons VCC à à vCenter via un serveur web pour l'utiliser comme un client vSphere.
Mais tout n'est pas aussi simple. L'interface graphique ne se met pas corectement à jour si des modifications extéieures ont été apportées à vCloud Director. Par exemple, nous avons créé un nouveau catalogue dans le vCloud Director de BlueLock et il ne s'est pas affiché jusqu'à ce que nous ayons redémarré le client vSphere. L'idéal aurait été un rafraîchissement des données. VMware explique que c'est sa façon de procéder, mais nous parions qu'il changera car c'est vraiment gênant. La commande Reload Data, utilisée pour mettre à jour l'état des objets, ne fonctionne pas non plus. Il est vrai que VCC est seulement en version 1.0.
Dans l'ensemble, le vCloud Connector est séduisant et pratique. Les limitations sont que vSphere nécessite IE7 + seulement, il n'y a pas actuellement d'actualisation efficace de l'état des objets et enfin il ne fonctionne pas avec d'autres outils VMware de transferts de machines virtuelles, comme High Aivailability Clustering ou VMotion. Mais c'est gratuit.
Symantec oriente ses produits de stockage vers le cloud
L'une des fonctionnalités que Symantec envisage d'apporter s'appelle Enterprise Object Store. Celle-ci utilisera un espace de nommage global pour permettre l'abstraction hétérogène de tout fichier de données. Selon Don Angspatt, vice-président du marketing produit de l'activité stockage et gestion de la disponibilité de Symantec, le fichier système pourra atteindre une taille à l'échelle du pétaoctet et sera accessible par HTTP. « Cela crée un pool de référence global. Il est donc possible d'accéder aux données de la même façon qu'on pourrait le faire depuis un téléphone portable, » explique-t-il. Dans la version finale de Storage Foundation 6.0, Symantec prévoit également d'inclure une fonction de stockage cloud hybride, via son outil Smart Tier for Oracle. Aujourd'hui, Smart Tier déplace de façon dynamique les données vers le hardware le plus ou le moins performant, en fonction de modèles et de configurations prédéfinies. La fonction de stockage cloud hybride permettra de sauvegarder les données à la fois en local et de les archiver automatiquement chez un fournisseur de services cloud public. Cette solution donne également la possibilité de basculer automatiquement vers le cloud dans le cas où l'accès local aux données sauvegardées s'avère impossible.
Gérer l'infrastructure cloud
La dernière mise à jour de Storage Foundation de Symantec (version 5.1) date du mois de novembre 2010. Cette version comprend une option de gestion par classes de service - or, argent ou bronze - qui offre aux administrateurs la possibilité d'automatiser et de personnaliser la fonction de stockage des applications selon des critères de performance et des niveaux de protection. Dans la prochaine version, Symantec ajoutera un utilitaire appelé « Virtual Business Services » qui donne aux administrateurs la possibilité de gérer une infrastructure de cloud privé - serveurs, applications métiers et stockage - à travers une seule interface utilisateur. Selon le vice-président de Symantec, grâce à l'utilisation des API déjà présentes dans le logiciel Veritas Cluster Service de Symantec, Storage Foundation 6.0 partagera ses ressources sous une seule interface de gestion - entre le web en front end, les applications métiers, les bases de données et les données stockées en arrière-plan.
Orchestrer les solutions multiplateformes
Veritas Cluster Server (VCS) de Symantec est une solution multiplateforme de clustering minimisant les temps de non-productivité. Il permet à ce titre d'automatiser le basculement des applications et des bases de données au niveau d'un centre de calcul ou entre plusieurs centres distant. « Le cloud étant constitué d'une infrastructure hétérogène, cela donne une visibilité de bout en bout, » a déclaré Don Angspatt. « Aujourd'hui, pour gérer un cloud globalement, il est nécessaire d'avoir un administrateur pour chaque niveau. Notre solution consiste à réduire cette complexité. » Storage Foundation de Symantec dispose déjà de fonctionnalités de reporting et d'équilibrage de charge. « Celles-ci seront désormais étendues au-delà de l'infrastructure de stockage, à toutes les applications métiers, » a ajouté Don Angspatt.
| < Les 10 documents précédents | Les 10 documents suivants > |