Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1201 à 1210.

< Les 10 documents précédentsLes 10 documents suivants >


(10/03/2010 15:09:18)

Tribune de Jean-Marc Boursat, Devoteam : Cloud computing, attention à la sécurité

Le cloud computing ou l'informatique dans les nuages est un concept porteur en 2010. L'avenir de cette plate-forme est encore incertain pour certains, mais de nombreuses entreprises utilisent ou souhaitent utiliser des services Cloud ou du moins les technologies sous-jacentes. De ce fait, des RSSI, confrontés aux choix de leur entreprise, se posent (ou devraient se poser) la question : quelles sont les avantages et les inconvénients d'un point de vue sécurité du cloud omputing pour une entreprise ? En termes de disponibilité du service, un service cloud est souvent présenté comme une solution rapide à mettre en oeuvre, et ajustable aux besoins de l'entreprise. L'informatique traditionnelle nécessitait une étude de dimensionnement et un suivi précis des ressources pour anticiper les évolutions nécessaires et dans certains cas, la mise en place de solutions de partage de charge. Dans le cas du cloud computing, le fournisseur de services effectue ce travail pour le client. Ce dernier peut donc croire que le risque d'indisponibilité du service est transféré chez son fournisseur, mais ce raisonnement a une faille : la disponibilité du service dépend aussi (surtout) de la disponibilité du réseau d'accès. L'abandon d'une application hébergée en interne au profit d'un service cloud impacte le réseau d'entreprise. L'usage des ressources réseau doit donc être analysé en phase pilote pour anticiper les évolutions de bande passante en fonction des prévisions d'utilisation du service cloud. Cette analyse doit être complétée par une vérification du système de partage de charge du fournisseur de service surtout si l'accès passe par un proxy présentant l'ensemble des utilisateurs de l'entreprise comme un seul. Pour poursuivre la lecture de la tribune de Jean-Marc Boursat de Devoteam BU Sécurité, rendez-vous sur notre Blog Experts LeMondeInformatique.fr (...)

(08/03/2010 15:34:03)

Sogeti et Capgemini dévoilent leur offre cloud

Infostructure Transformation Services (ITS), tel est le nom choisi par Capgemini et Sogeti pour accompagner les entreprises dans la migration vers les solutions de cloud computing. Travaillant depuis quelques mois sur cette évolution, les deux sociétés proposent de gérer cette transformation en plusieurs étapes, l'optimisation des datacenters, la virtualisation, les solutions clouds et les communications unifiées.

Pour gérer ces différentes briques, les deux structures apportent leur expertise de consultants et d'intégrateurs de solutions. Elles ont développé des processus et méthodologies pour faciliter la migration du système d'information du physique au virtuel, puis au cloud, tout en passant d'une logique classique d''intégration de systèmes à celle d'un assemblage de services.

Capable de gérer aussi bien les clouds publics, privées ou hybrides, les offres proposées, utilisent des solutions reconnues comme Microsoft Azure ou les services d'Amazon par exemple. L'offre ITS s'inscrit dans le programme « Business as Unusual » de Capgemini qui comprend déjà trois offres, « Business Information Management », « Application Lifecycle Services » et « Testing ». Une quatrième interviendra fin mars et portera sur les « Smart Energy Services ». Fort de ce portefeuille, les deux groupes espèrent, selon Philippe Rochet, directeur d'Infostructure Transformation Services Capgemini-Sogeti France, une hausse du carnet de commandes de 800 millions d'euros pour 2010. (...)

(08/03/2010 15:27:41)

Une alliance veut évangéliser les datacenters à l'open source

OSDCI, voilà l'acronyme de l'initiative pour des datacenters en open source, qui doit être le trait d'union entre les avancées technique et l'ingénierie sur le design des centres de calculs. Ce groupe s'est adjoint les conseils de Michael Manos, qui a travaillé sur le développement des datacenters de Microsoft et s'occupe maintenant d'élaborer l'infrastructure cloud de Nokia. « L'industrie des fermes de serveurs est dominée par de grandes groupes d'ingénierie, qui eux-mêmes utilisent des architectures majoritairement propriétaires. Ces sociétés n'ont pas assez d'émulation pour proposer à leurs clients des solutions alternatives, plus simples et standardisées » explique-t-il Le groupe jouera également un rôle de conseils, en publiant des données mondiales sur le coût d'implémentation des projets, tels que les systèmes de climatisation, pour que les clients disposent de « plus de transparence » dans leur prise de décision. Un élan participatif Michale Manos s'est entouré d'une équipe de conseillers, issus des communautés utilisateurs finaux, pour travailler conjointement avec le groupe de recherche sur des problématiques communes, comme l'efficience énergétique. L'Open Source Data Center Initiative a été fondée par Dave Ohara, un ingénieur formateur (Hewlett Pakcard, Apple et Microsoft) qui travaille maintenant sur le blog Green Data Center. Il a collaboré avec l'université du Missouri pour construire un datacenter, où il a testé des technologies issues de l'open source. Ce projet a été réalisé en plusieurs étapes et a soulevé plusieurs questions sur sa façon de fonctionner. « Pour garantir leur succès, les projets open source ont besoin d'une participation de l'ensemble des acteurs » explique Joe Polastre, CTO de Sentilla, qui propose des outils de surveillance de la consommation énergétique des datacenters. Pour améliorer cette participation,Michael Manos souhaite « apporter aux petites structures d'ingénierie un accès à des pools d'ingénieurs qui pourrait les aider à être plus compétitif et leur donner une certification à leurs solutions ». [[page]] Du côté des grandes sociétés d'ingéniérie, cette initiative est, sans surprises, rejetée. Bruce Edwards, président de la CGC Facilities Integration, souligne que « les datacenters ont vu des innovations significatives depuis 10 ans, notamment dans le domaine l'énergie ou du refroidissement des salles. » Il est aussi critique sur les motivations de ce groupe industriel : « l'idée qu'un modèle collaboratif sans profit, ni aspect concurrentiel serait le moteur de l'innovation, je ne partage pas ce point de vue ». Une autre voie L'alliance a expliqué qu'il ne rentrerait pas en compétition avec d'autres structures comme le Green Grid Forum ou l'Institut Uptime, même si elle considère faible le niveau des progrès réalisés. Manos salue ainsi « l'adoption des meilleures pratiques depuis quelques années de ces différents groupes, mais peu ont obtenu des avancées et des réalisations à cause des pressions financières. Nous devons donc proposer une autre voie » (...)

(08/03/2010 15:03:27)

Huit coeurs et tolérance aux pannes accrue pour les Intel Xeon Nehalem-EX

Développée pour les serveurs quatre sockets, la génération Xeon Nehalem-EX (huit coeurs par processeur) vise le marché haut de gamme : base de données et usage intensif d'applications dans des environnements virtualisés. La semaine dernière, IBM a annoncé qu'il mettrait en oeuvre ces puces dans ses serveurs System x eX5 . Le PDG d'Intel, Paul Otellini, a simplement décrit Nehalem-EX comme le processeur maison le plus rapide à ce jour. Aucune information sur la fréquence n'a été indiquée mais la puce, gravée en 45 nm, sera dotée de 24 Mo de cache et de 2,3 milliards de transistors. Chaque noyau physique sera en mesure d'exécuter deux threads simultanément, ce qui permettra à cette plate-forme de supporter jusqu'à 64 coeurs virtuels sur les serveurs, a déclaré Shannon Poulin, directeur Plate-forme Xeon d'Intel. Rappelons que l'architecture Nehalem intègre le contrôleur mémoire et améliore la vitesse du système en réduisant les goulets d'étranglement qui ont longtemps été le talon d'Achille des systèmes Xeon. Intel exploite également de nouvelles technologies comme la MCA pour améliorer la correction d'erreurs. Le processeur sera capable de détecter les erreurs issues du CPU ou de la mémoire et de les corriger en travaillant avec le système d'exploitation. Certaines de ces technologies sont issues des travaux engagés sur les puces très haut de gamme Itanium, qui reposent sur une architecture distincte et principalement destinées aux systèmes Unix hautes disponibilités. Les processeurs EX intègrent également des composants de mémoire tampon distincts pour stocker temporairement des données aux côtés de la mémoire principale et accélérer significativement l'exécution des tâches. Sur cette plate-forme, Intel devrait également offrir quatre canaux de mémoire par processeur, indique Shannon Poulin. Une condition sine qua none pour rattraper AMD et sa puce douze coeurs pour serveurs, le célèbre Opteron Magny-Cours. Plus de tuyaux pour fournir plus de bande passante mémoire et exécuter plus rapidement les programmes. Intel apporte plus de mémoire cache avec son Nehalem-EX pour améliorer les performances de sa puce, mais AMD Magny Cours offre plus de noyaux physiques par processeur. [[page]] AMD a commencé à livrer ses processeurs Magny-Cours, et l'arrivée de l'Intel Nehalem-EX devrait intensifier la bataille entre les deux rivaux qui cherchent à obtenir très rapidement des références clients dans les entreprises, nous a indiqué Nathan Brookwood, analyste chez Insight 64. Mais dans cette bataille, AMD pourrait détenir un avantage sur Intel quant à la tarification. Le fondeur de Santa Clara pourrait facturer un supplément substantiel pour ses puces Nehalem-EX, tandis que le processeur Magny-Cours offrirait un meilleur rapport coût /performances par coeur selon l'analyste. Les résultats de cet affrontement pourraient toutefois tourner court car les performances ne constituent qu'une partie de l'affaire, poursuit Nathan Brookwood. Les Nehalem-EX pourraient conquérir un nouveau marché grâce aux fonctionnalités supplémentaires comme la tolérance aux pannes, précise encore Nathan Brookwood. Intel pourrait enfin imposer ses puces X86 sur le territoire des serveurs haut de gamme partagé aujourd'hui entre les processeurs Risc d'IBM (PowerPC), d'Oracle/Sun (Sparc) et même de HP/Intel (Itanium). Le directeur de la plate-forme Xeon d'Intel, Shannon Poulin, indique également que la société lancera également des puces Xeon basées sur l'architecture Westmere. Des processeurs six coeurs qui seront tout d'abords intégrés aux serveurs bi sockets. Le jeu de composants capable de gérer des cartes mères quadri sockets ne sera pas disponible avant l'année prochaine. Gravé en 32 nm, les puces Westmere intègrent 1,17 milliard de transistors et jusqu'à 12 Mo de mémoire cache. Selon Intel, cette plate-forme offrira des performances améliorées et des économies d'énergie par rapport aux précédentes puces quatre coeurs. La dernière actualisation des processeurs pour serveur a été livrée en mars de l'année dernière, lorsque la société avait annoncé les Xeon série 5500 et 3500 basés sur l'architecture Nehalem et gravés en 45 nm. (...)

(08/03/2010 10:14:35)

Cebit 2010 : Microsoft va dépenser 9,5 milliards de dollars en R&D en 2010

Microsoft a prévu de dépenser 9,5 milliards de dollars en recherche et développement cette année, a indiqué Kevin Turner, le directeur général (COO) de la société, au cours d'une intervention au Cebit de Hanovre la semaine dernière. C'est, a-t-il assuré, bien au-delà de ce que consent n'importe quel concurrent dans ce domaine. Il chiffre la différence à 3 milliards de dollars de plus par rapport à l'acteur IT le plus proche de Microsoft. La plupart de ces investissements seront centrés sur les services de cloud, ou sur des outils informatiques hébergés proposés en ligne aux utilisateurs. « A la lumière des difficultés macro-économiques dont nous sortons, nous avons vraiment décidé de redoubler nos efforts d'innovation. Nous allons réinventer notre société en mettant le cloud au premier plan », a déclaré le directeur général, tandis que sur la côté Ouest des Etats-Unis, à peu près au même moment, son PDG Steve Ballmer tenait un discours semblable à l'Université de l'Etat du Washington. Kevin Turner affirme que Microsoft dispose déjà de plus de services de cloud que tout autre, en commençant par ses messageries grand public, jusqu'à ses logiciels hébergés pour les entreprises (tels que Dynamics CRM, l'offre de gestion de la relation client), en passant par sa plateforme de cloud, Azure. Il y aura toujours besoin de logiciels clients classiques Microsoft conservera malgré tout une activité logicielle traditionnelle significative, a poursuivi Kevin Turner. L'éditeur de Redmond a subi ces dernières années une pression de plus en plus forte de la part de sociétés telles que Google, qui vend des suites de productivité entièrement accessibles en ligne. Mais son directeur général considère qu'il y aura toujours besoin de logiciels clients classiques, capables de fournir des fonctionnalités plus étendues. Le dirigeant a également profité de l'occasion pour défendre le système d'exploitation Windows Mobile 7, présenté au WMC de Barcelone et qui sera livré cette année. Sur ce terrain aussi, la concurrence est rude, de la part d'Apple, de Nokia et des fabricants s'appuyant sur l'OS Android de Google. Windows Mobile 7 est une complète refonte des précédents OS mobiles de Microsoft, a indiqué Kevin Turner, et il est étroitement intégré avec la console Xbox et les baladeurs Zune. « Ce n'est pas un produit de suiveur », a-t-il insisté. (...)

(05/03/2010 17:20:39)

Microsoft mise tout sur le cloud, confesse Steve Ballmer

70% des 40 000 collaborateurs de Microsoft(*) qui travaillent sur les logiciels le font d'une façon ou d'une autre pour le cloud, a déclaré à Seattle hier, jeudi 4 mars, le PDG de la société, Steve Ballmer, devant un auditoire d'étudiants en informatique réunis à l'Université de l'Etat du Washington. Selon le patron américain, cette proportion sera passée à 90% dans un an. « Notre inspiration, notre vision... s'appuie sur le cloud. C'est le pari que nous faisons. Pour le cloud, nous sommes tous sur le pont. Littéralement, je vous dirai que nous avons misé notre groupe dessus ». Tous les produits de l'éditeur, incluant Windows, Office, la Xbox, Azure, Bing et Windows Phone, sont conçus avec l'idée d'une connexion au cloud, a-t-il poursuivi. Même si pour certains d'entre eux récemment livrés, comme Windows 7, il y a eu beaucoup de développements qui n'étaient pas liés aux services hébergés, l'inspiration autour du produit a démarré « avec le cloud ». Au-delà du logiciel, Ballmer a évoqué les différentes stratégies de Microsoft pour mettre au point des équipements qui se connectent à des services en ligne. « Le cloud a besoin de terminaux plus intelligents ». Il a reconnu que Microsoft a commis des erreurs dans sa façon d'aborder le marché de la mobilité, laissant aux fabricants trop de latitude sur le choix des formats de terminaux. « Nous n'avons pas suffisamment standardisé », ce qui a généré pour les utilisateurs une trop forte cacophonie autour des formats. Clouds publics/clouds privés Au Mobile World Congress de Barcelone, Microsoft a montré que la nouvelle version de sa plateforme mobile, Windows Phone 7, était plus stricte sur les pré-requis matériels. Malgré cela, a ajouté Steve Ballmer, le système d'exploitation devrait offrir aux fabricants davantage d'options pour innover face à des concurrents tels qu'Apple ou RIM. Avec ces derniers, on ne peut faire que « ce qu'ils ont choisi pour vous », a-t-il asséné. Le PDG précise que sa société recourt à la même stratégie pour sa console de jeu Xbox. Microsoft veut aussi encourager le développement de différents services de cloud computing, à la fois privés et publics. « Comment faire pour que le cloud ne soit pas quelque chose que seules Microsoft et quatre autres sociétés exploitent pour le compte de la planète entière ? Comment vous le rendre ? Vous devez, si vous le voulez, pouvoir exploiter votre propre cloud ». Dans certains cas, Microsoft peut avoir intérêt à aider à mettre en place un environnement hébergé, par exemple dans le cas d'un gouvernement souhaitant conserver ses données à l'intérieur de ses frontières. « Il y a peu de chance que notre société installe bientôt un cloud public en Slovénie, cite en exemple Steve Ballmer. En revanche, Microsoft pourra vendre un ensemble de produits construits autour de ses services de cloud Azure qu'un pays comme la Slovénie pourra acheter et mettre en place lui-même. [[page]] Accélérer l'innovation scientifique Les bénéfices potentiels du cloud computing sont énormes pour les entreprises et les chercheurs, considère le PDG de Microsoft. «Nous devons accélérer la cadence de l'innovation scientifique». En accédant à des services de cloud public, les chercheurs pourront analyser de plus importants volumes de données et accélérer leurs travaux, explique Steve Ballmer. Ce qui permettra, par exemple, de pouvoir avancer sur les questions de changements climatiques. Le cloud « va créer pour vous tous ici des opportunités de recherche et de projets », a-t-il lancé aux étudiants en ajoutant que le modèle hébergé créait aussi de nouvelles possibilités pour les entreprises. Le PDG pense voir apparaître encore de nouveaux modèles économiques suscités par « cette infrastructure logicielle qui n'existait pas jusqu'à présent ». Il cite l'exemple d'une société dont les ressources limiteraient sa capacité de services à une communauté locale. En utilisant une infrastructure en ligne, elle pourra offrir ses produits à une audience plus large, payant les services informatiques au fur et à mesure qu'elle les utilise, sans avoir à investir d'emblée dans un datacenter. Steve Ballmer suggère même que cela pourrait donner des idées aux développeurs en Open Source pour vendre ce qu'ils ont fait. « Avec l'apparition de ces nouvelles infrastructures commerciales, ces inventeurs peuvent maintenant se demander comment ils pourraient monétiser ce qu'ils ont fait », et tirer un revenu des innovations qu'ils ont créées. (...)

(05/03/2010 15:14:04)

Cyberconflit et sécurité du cloud au menu de la conférence RSA

Durant une table ronde d'experts, un directeur de la formation technique de la NSA (National Security Agency) a indiqué qu'il n'avait pas confiance dans les services cloud. Parlant en son nom et non au titre de l'agence, Brian Snow explique que « l'infrastructure cloud délivre des services auxquels les clients accèdent de manière sécurisée, mais la nature des échanges engendre des doutes sur d'éventuelles attaques via d'autres utilisateurs dans le cloud ». Dans une présentation, Art Coviello, président de RSA, la division de sécurité d'EMC, estime que les clients ont besoin de savoir que le cloud est sûr. Le responsable pense que son adoption est inéluctable au regard des bénéfices financiers importants attendus, mais pas sans un niveau de sécurité élevé. « Le gros problème est la confiance », résume-t-il, en soulignant, comme exemple, la réponse apportée conjointement par Intel, VMware et EMC pour mesurer les niveaux de sécurité des prestataires d'offres cloud. Une plateforme pour lancer des botnets En parallèle, le sommet de l'alliance sur la sécurité du cloud (CSA), qui s'est tenu, au sein de la conférence RSA, a annoncé la réalisation d'un rapport sur les questions de sécurité et notamment de la documentation sur les risques d'utiliser les infrastructures cloud comme plateforme pour lancer des botnets. Le même consortium, regroupant utilisateurs et fournisseurs, a pointé les différentes failles des services proposés, ainsi certaines API ne sont pas assez sécurisées et laisse la porte ouverte à une attaque via le cloud. La solution pour éviter cela, est l'implémentation combinée d'une authentification forte, d'un contrôle de l'accès et de transmissions cryptées. [[page]] L'autre temps fort de cette conférence a été l'intervention de la Secrétaire d'Etat américaine à la sécurité intérieure en tant que recruteur, car le gouvernement ne peut pas gérer seul les différentes menaces. Elle a donc confirmé la recherche de spécialistes de la cybersécurité y compris issus d'entreprises privées. Janet Napolitano a aussi lancé l'idée d'un concours sur la création d'un programme national de sensibilisation à la cybersécurité auprès du grand public, en leur montrant comment les gens peuvent contribuer à l'amélioration de la sécurité. Ce programme devrait être diffusé via les réseaux sociaux pour renforcer son efficacité. Le gouvernement américain ne peut pas s'occuper tout seul de la sécurité, car la majorité des infrastructures réseaux sont des propriétés privées. Elle a donc exhorté les différents acteurs « à redoubler d'efforts pour augmenter la sécurité, la fiabilité et la qualité de leurs produits qui entrent dans cet écosystème virtuel ». Janet Napolitano a également appelé à une automatisation des règles de sécurité et indiqué que le gouvernement travaille sur système de prévention d'intrusion (IPS) pour protéger les réseaux des agences fédérales. Une évolution de la plateforme de détection d'intrusion, Einstein 2 vers Einstein 3 est en cours. Cet outil a déjà été déployé au sein de 9 agences fédérales, mais aussi sur les réseaux des opérateurs AT&T, Qwest et Sprint. Verizon devrait prochainement rejoindre la liste. Einstein 3 aura pour mission de détecter automatiquement les activités malveillantes et de désactiver les tentatives d'intrusions. (...)

(04/03/2010 16:02:36)

IBM développe des interconnexions optiques pour ses prochaines générations de puces

La société d'Armonk a en effet créé un dispositif de faible puissance électrique qui permet de transférer des informations à grande vitesse utilisant la lumière. "Le dispositif, appelé un détecteur d'avalanche photonique, est le plus rapide de son genre et pourrait permettre des avancées qui auront des implications importantes pour l'avenir de l'électronique», explique IBM dans un communiqué et une vidéo(voir plus bas). Dépasser la barrière de l'exaflop Le dispositif, détaillé dans un article publié par la revue Nature, est capable de transmettre des données à des vitesses allant jusqu'à 40 Gbit par seconde, en utilisant une alimentation électrique de 1,5 volts. Les signaux lumineux sont transportés sur des circuits de silicium au lieu des fils de cuivre traditionnellement utilisés pour transporter des signaux électriques entre les puces. L'appareil, qui repose sur la technologie actuelle des semi-conducteurs, est particulièrement intéressant sur le plan éco énergétique car il utilise une puissance environ 20 fois moindre que les précédents dispositifs, précise IBM. L'objectif des chercheurs est de construire une puce d'interconnexion optique qui permettrait la construction d'ordinateurs offrant des performances d'un exaflop, équivalent à 1.000.000.000.000.000.000 opérations à virgule flottante par seconde (flops). Pour mettre ce dernier point en perspective, un ordinateur d'un exaflop serait à peu près 600 fois plus rapide que l'ordinateur le plus puissant du monde, le Cray XT5 « Jaguar » du Laboratoire national d'Oak Ridge au Tennessee, qui atteint 1,75 pétaflop, ou 0,0175 exaflop. (...)

(04/03/2010 15:01:56)

Microsoft imagine des datacenters ultra-modulaires

A la conférence Datacenter Dynamics à New York, le responsable de Microsoft sur le sujet, Kevin Timmons, a dévoilé un prototype, utilisé par son unité, pour créer les prochaines générations de datacenter. Et cette vision est radicalement différente de ce que propose aujourd'hui l'éditeur et ressemble aux solutions mises en place par Google. La firme de Redmond teste actuellement ce que Timmons appelle IT PACs ou composants IT pré-assemblés de petite taille. Ces unités sont indépendantes et peuvent être assemblées en dehors des sites et connectées ensemble pour recréer un centre de calcul. Microsoft explique qu'il est confronté à la même problématique que les opérateurs de datacenters. Ils ont besoin d'une évolution rapide de leur capacité dans des délais courts, mais la construction de nouveaux bâtiments prend du temps et demande beaucoup d'investissements. La solution est donc dans « l'ultra-modularité ». « A la place de payer 400 millions de dollars ou plus pour construire des bâtiments, Microsoft préférera acheter des terrains, construire des sous-stations équipées d'unités modulaires et les faire évoluer en fonction de la demande » explique Timmons. Reste que l'usage d'un bâtiment ou d'un entrepôt permet de se prémunir contre les intempéries. Un refroidissement étudié Les unités seront assemblées avec des composants disponibles commercialement. Une seule personne peut construire un module en quatre jours. Les serveurs seront empilés en rangs, serré entre des conduits d'évacuation de chaleur et les prises d'air. Pour le refroidissement, l'air ambiant sera recyclé par les serveurs pour maintenir une température équilibrée au sein du conteneur. L'unité n'utilisera pas d'éléments extérieurs ou additionnels pour le refroidissement. Un responsable du projet a spécifié que les terrains choisis devront être dans une zone tempérée pour fournir un refroidissement suffisant. Les matériaux utilisés pour la coque, seront l'acier et l'aluminium, facilement recyclables. Les besoins en eaux nécessiteront un raccordement à un simple tuyau et une pression au même niveau que les résidentiels. Les équipes de développement ont travaillé sur différentes tailles de conteneurs, pour rendre les unités plus facilement transportables. En moyenne, les modules pourront comprendre entre 1200 et 2100 serveurs et consommés entre 400 et 600 kilowatts. (...)

(04/03/2010 09:21:51)

EMC, Intel et VMware s'associent pour garantir la sécurité des clouds privés

L'objectif de cette alliance est d'établir « un socle commun de confiance pour déployer des environnements clouds», avec des caractéristiques physiques et des politiques de sécurité communes, explique Sam Curry, directeur technique de la division RSA Security d'EMC. Les plates-formes clouds privés rassemblent habituellement des applications sur la même base hardware, mais Sam Curry pointe que certains types de données ne peuvent pas être mélangées à d'autres en raison de règlementations gouvernementales ou d'obligations corporatives (Bale II par exemple). Ce partenariat ne se traduira pas dans les faits par un produit mais plutôt dans la démonstration que les technologies des deux sociétés* peuvent être combinées pour renforcer la sécurité dans les clouds. Ces travaux pourront ensuite être utilisés par les fournisseurs de services pour aider leurs clients à construire des clouds privés derrière leur pare-feu ou un cloud dédié rassemblant des services hébergés chez un tiers. «Nous croyons que, dans un futur très proche, un grand nombre d'entreprises et d'administrations utiliseront des services fournis par des clouds. Et ces dernières pousseront leurs prestataires à renforcer la sécurité des couches matérielles et à améliorer l'efficacité des hyperviseurs » poursuit Sam Curry. Ce dernier précise encore que les fournisseurs de clouds devront garantir une plus grande visibilité quant à la sécurité de leurs plates-formes matérielles en produisant automatiquement des rapports normalisés sur la configuration de l'infrastructure physique et virtuelle, et fournir ainsi la preuve que cette infrastructure est conforme aux politiques de sécurité et de protection des données. Combinaison de technologies La démonstration des deux sociétés* reposait sur la combinaison des technologies d'authentification des processeurs Intel, des ressources proposées par VMware pour la collecte des données relative à l'infrastructure physique et virtuelle et enfin des informations issues de la plate-forme RSA, qui identifie les menaces potentielles à la sécurité et la conformité. Ces informations sont ensuite passées à la moulinette des outils de conformité d'Archer Technologies, une société récemment acquise par EMC. Archer Technologies propose toute une suite d'outils qui évalue les risques, met en place des règles, surveille leur application, rapporte les incidents, réalise des audits... L'un des avantages de cette approche est d'affiner le contrôle de l'application de politiques différenciées dans les clouds privés. Savoir précisément sur quel serveur physique s'exécute une machine virtuelle, quels locataires ou entités commerciales cohabitent et partagent leurs ressources. Sam Curry conclut en indiquant que des fournisseurs tiers proposeront des services fondés sur cette première démonstration dans les six prochains mois. *Comme RSA, Archer et VMware sont détenues par EMC, cette collaboration comprend seulement deux entreprises indépendantes, EMC et Intel. (...)

< Les 10 documents précédentsLes 10 documents suivants >