Robo Brain est un référentiel accessible dans le cloud qui permettra aux robots d'apprendre de nouvelles tâches à partir de vidéos ou d'images.

L'Image du jour

Robo Brain est un référentiel accessible dans le cloud qui permettra aux robots d'apprendre de nouvelles tâches à partir de vidéos ou d'images.

Start-up 2014, les nouveaux maîtres de la Silicon Valley

Dernier Dossier

Start-up 2014, les nouveaux maîtres de la Silicon Valley

En juin dernier, nous étions de retour à San Francisco et dans la Silicon Valley avec une dizaine de journalistes européens pour la quinzième édition ...

Restez proche de l'actualité IT

NEWSLETTERS THEMATIQUES

Découvrez nos différentes newsletters adaptées à vos besoins d'actualités IT Pro : Mobilité, Réseaux, Stockages, ...

Abonnez-vous 
FERMER

ESPACE PARTENAIRE

Webcast

FERMER

LMI MARKET

Votre comparateur de prestataires IT : Comparez les devis, Evaluez les prestataires, Trouvez le juste prix!...

Accéder à ce service 

BLOG

Découvrez les contenus exclusifs publiés par les lecteurs du Monde Informatique avec la plateforme LMI Blog...

Accéder à ce service 

COMPARATEUR DE SALAIRE

Partagez votre situation salariale anonymement, consultez les statistiques depuis 2009 et faites vos propres analyses...

Accéder à ce service 

IT TOUR

LMI vous invite à sa Matinée-Débats dans votre région.
Inscrivez-vous

Accéder au site 
FERMER

Flux RSS

Virtualisation

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS, Inscrivez-vous

885 documents trouvés, affichage des résultats 1 à 10.

Les 10 documents suivants >


(01/09/2014 17:22:51)

Les traitements Hadoop arrivent dans Docker

Conçue à l'origine pour faciliter le travail des développeurs web, la plate-forme de containers Linux Docker pourrait aussi être une aubaine pour les applications dédiées au traitement des grands volumes de données. L'équipe à l'origine d'Altiscale, la solution Hadoop-as-a-Service développée par Raymie Stata, l'ancien CTO de Yahoo, travaille en étroite collaboration avec la communauté Docker pour intégrer la technologie à Yarn (Yet Another Resource Negotiator), le planificateur de tâches livrée avec Hadoop 2.0.

M. Stata indique que ce développement est particulièrement important pour son entreprise, ainsi que pour tous ceux qui utilisent Hadoop dans un environnement multi-tenant. Non seulement Docker fournit une solution autorisant le déploiement rapide d'applications sur Yarn, mais il assure également le cloisonnement entre elles. Le cloisonnement est un point important en termes de sécurité (un utilisateur peut disposer des autorisations dans un cluster qui ne s'étend pas au cluster voisin), mais aussi de performances.

Des instances multiples et cloisonnées au-dessus de Yarn

Pour une entreprise comme Cloudera, a-t-il expliqué, l'intégration avec Docker pourrait être « un vrai plus » parce que beaucoup d'utilisateurs de la distribution Hadoop sont limités aujourd'hui à des instances locales et exclusives. Cependant, comme plus en plus de clients commencent à vouloir exécuter plusieurs types de tâches - Spark et Matlab par exemple - au-dessus de Yarn, la gestion d'instances multiples et cloisonnées est arrivée sur la tapis.

Cependant, avant de pouvoir utiliser Docker avec Yarn, il est encore nécessaire d'intégrer le support des User ID (UID) de Linux, qui assurera qu'une application ne déborde pas sur une autre et ne compromet donc pas les performances et l'intégrité d'un container.

A la fin de cette année, les utilisateurs de Hadoop devraient être en mesure de commencer à utiliser des conteneurs Docker en ligne sans compromettre la sécurité de leurs données.  Reste toutefois à savoir s'ils se précipiteront vers Docker, mais Stata semble penser que le désir de maximiser l'usage de Yarn en conduira beaucoup dans cette direction.

(...)

(29/08/2014 17:29:10)

Recap IT : VMware embrasse Docker et OpenStack, Les smartwatches en force à l'IFA 2014, Google présente son drone

La rentrée IT a sonné. Elle a même commencé avant l'heure avec VMware qui, avec sa conférence VMworld 2014 qui s'est tenue à San Francisco fin août, a fait feu de tout bois. Parmi les principales annonces, on retiendra le partenariat avec Docker, la solution de conteneurisation Open Source qui monte, le lancement de sa distribution OpenStack basée sur vSphere et l'association entre VMware, Dell et Cumulus Network pour proposer une plate-forme de virtualisation du réseau intégré sur le SDN du premier. Sans compter le lancement d'EVO: Rail, une appliance qui permet de rationaliser le déploiement et la montée en charge des infrastructures virtualisées et la bêta publique de vSphere 6.0 pour améliorer l'allocation du stockage. 

Parmi les autres actualités liées à la virtualisation qui ont émaillé la semaine écoulée, on notera en particulier que la version 5.0 du logiciel de stockage distribué Ring de Scality, apporte son stockage cloud aux machines virtuelles de VMware, et aussi Simplivity qui sort une appliance Omnistack avec Cisco

Alors que l'IFA 2014, le plus grand salon européen de l'électronique grand public, n'a pas encore démarré, les constructeurs sont nombreux à faire (bien souvent volontairement) fuiter des informations sur les produits qu'ils vont présenter. C'est le cas par exemple de Sony et de LG, tous deux prêts à dégainer leurs smartwatches. Smartwatch toujours avec Samsung qui serait sur le point d'agrandir sa famille de montres connectées avec la Galaxy Gear 3. Sur le salon berlinois, on devrait également en savoir plus sur le Desire 820, le 1er smartphone Android 64 bits. En parallèle des indiscrétions strictement liées à l'IFA, d'autres sont également apparues, avec en particulier celle relative au lancement du prochain Nexus X de Google sous Android 5.0 L mais aussi d'un iPad Maxi en 2015 mais également la conférence de presse d'Apple  le 9 septembre qui devrait lever (enfin) le rideau sur l'iPhone 6, dont les fonctions et améliorations attendues ne manquent pas, ainsi que l'iWatch. 

ICReach, le moteur de recherche made in NSA

Les informations sur les dispositifs mis en place par la NSA pour scruter les faits et gestes des individus coulent à flot depuis de long mois. C'est encore le cas dernièrement avec la découverte du moteur de recherche ICReach permettant de faciliter le partage des données personnelles par la NSA avec ses alliés. Toujours dans la sécurité, la CNIL a sanctionné Orange après une fuite de données chez un prestataire ayant réalisé des opérations de marketing pour l'opérateur. 

Dans le secteur du big data, Amazon a annoncé préparer sa plate-forme de publicité en ligne pour concurrencer Google AdWords, baptisé Sponsored Links. De son côté, IBM a mis à jour Watson Discovery Advisor, la version commerciale de son système apprenant Watson, avec un gain de rapidité atteignant 240%. En France, Voyages-SNCF.com a levé le rideau sur son usine logicielle localisée à Nantes et également ses projets big data visant à améliorer la personnalisation de ses apps et son service de suggestion de voyages. Côté logiciel, Cegid a fait évoluer son offre retail qui s'ouvre davantage aux applications externes. 

La semaine qui s'est écoulée a également marquée sur le terrain du cloud l'arrivée de Salesforce 1 Community Cloud, un outil permettant de construire des sites de réseaux sociaux d'entreprise permettant aux employés, partenaires et clients de communiquer et de collaborer. Dropbox, le spécialiste du stockage cloud, a également fait parler la poudre (ou pas) avec une offre à 1 To pour 10 euros par mois, un tarif légèrement supérieur à celui de Google Drive, tout en présentant également des nouveautés en matière de partage de fichiers aux côtés de VMware et d'Amazon

A signaler par ailleurs le prototype de drone de Google, Project Wing, qui se positionne en concurrence frontale du service PrimeAir d'Amazon annoncé en décembre dernier qui prévoit lui aussi d'être taillé pour la livraison de colis par drone. De son côté la Chine, avec son OS souverain, pourrait bien trouver un moyen de contrer la suprématie de Windows dans le pays. 

(...)

(29/08/2014 17:06:21)

Pour supporter Docker, Microsoft Azure mise sur Google Kubernetes

La déferlante Docker avance sans faiblir. Après VMware qui vient juste de clamer son ralliement surprise à la cause et quelques mois après l'annonce de la solution de gestion de containers Kubernetes de Google, Microsoft vient d'expliquer qu'il allait utiliser cet outil Open Source pour supporter la technologie de Docker dans Azure. Quand on connaît le passif de Microsoft dans l'Open Source, c'est une annonce pour le moins surprenante.

Si Kubernetes permet de lancer et de gérer des containers Docker, Microsoft a également publié un outil appelé Kubernetes Visualizer qui représente graphiquement l'architecture et la topologie Kubernetes. Point essentiel, l'éditeur de Redmond a rendu public le code de son outil sur GitHub.

Docker est devenu le standard de facto

Avant Microsoft, Google, AWS, Red Hat, IBM et même VMware avaient manifesté leur intérêt pour Docker qui est en passe de devenir de facto le standard pour la technologie containers. Cette solution permet de conditionner une application dans un minimum d'espace, en mobilisant le minimum de ressources, et de la faire tourner sans utiliser de machines virtuelles et sans avoir besoin de licences logicielles pour les exécuter et les gérer. Et même s'il présente des similitudes avec l'hyperviseur de virtualisation, le container Docker est plus léger. En effet, contrairement à une machine virtuelle classique, le conteneur Docker n'a pas besoin d'intégrer un système d'exploitation complet pour fonctionner puisqu'il peut utiliser les ressources de son système hôte. Cela signifie que, par rapport à un hyperviseur, les conteneurs sont plus rapides à créer et à démarrer.

Pour Microsoft et Google, en particulier, un soutien massif à Kubernetes serait une très bonne nouvelle. Les deux firmes tentent aujourd'hui de grignoter des parts de marché à Amazon Web Services, qui domine sans partage le marché du cloud depuis le lancement de son service de stockage S3 en 2006. Si Microsoft et Google arrivent à amener la prochaine génération de développeurs sur leurs plates-formes respectives, comme AWS a su si bien le faire en 2006, les cartes pourraient être redistribuées sur le marché désormais stratégique du cloud computing.

(...)

(29/08/2014 15:45:34)

Comment SFR reconfigure ses 96 datacenters

SFR engage un plan de  refonte de ses datacenters. Point de départ de l'opération, la structure même de l'opérateur, issu d'opérations de rachats et de fusions où se sont retrouvées des marques et des sociétés comme Cegetel, AOL, LD Com, Siris, NeufTélécom.  Le parc actuel de datacenters se compose  de structures avec des tailles et des infrastructures  réseaux très différentes et en partie obsolètes. « A chaque étape, différents sites se sont ajoutés et ont continué à vivre », souligne Fabrice Cousin (en photo) directeur des datacenters de l'opérateur.

Pour lire la suite de cet article, rendez-vous sur Réseaux & Télécoms (...)

(29/08/2014 10:40:56)

VMware et Nvidia décuplent la puissance graphique des chromebooks

A l'occasion du VMworld 2014, Nvidia et VMware ont annoncé un partenariat pour coupler sa technologie Nvidia Grid vGPU avec VMware Blast, une fonction d'Horizon View permettant aux utilisateurs d'accéder à des bureaux virtuels au travers n'importe quel navigateur web compatible HTML 5. Parmi les terminaux pouvant bénéficier de cette innovation, on trouve les chromebooks de Google qui voient leurs performances graphiques décuplées, pour être, selon Vmware et Nvidia, « équivalentes aux stations de travail ».

La technologie Nvidia Grid vGPU permet de partager l'accélération GPU entre plusieurs bureaux virtuels et est combinée avec VMware Horizon pour permettre aux utilisateurs de chromebooks de bénéficier de capacités graphiques avancées. « Combiné avec VMware Horizon dans les centres de calcul, la solution optimisera l'utilisation des processeurs et des circuits graphiques pour permettre à davantage de postes de travail et d'applications d'être déployés sur un seul serveur », a fait par ailleurs savoir Nvidia.

L'autonomie des chromebooks étendue de 50%

Grâce aux technologies VMware Blast et Nvidia Grid vGPU, l'autonomie de la batterie des chromebooks serait étendue de 50% et permettrait de faire tourner sur les terminaux Google dotés de processeurs Tegra K1 des applications gourmandes en ressources comme Adobe Illustrator CC, Autodesk AutoCAD sans compter des apps bureautiques comme Microsoft Office. Le modèle chromebook 13 d'Acer qui vient de sortir, devrait ainsi être le premier à être doté d'une puce Tegra K1 et bénéficier de cet octroi de puissance graphique.

Une bêta privé a par ailleurs été mise en place pour tester la technologie Nvidia Grid vGPU sur les plate-formes vSphere (les inscriptions sont à cette adresse). Les participants doivent au préalable disposer d'un compte VMware, d'un accès à vSphere Beta, avoir un déploiement (en cours ou en évaluation) de VMware Horizon et des terminaux dotés de processeurs Tegra K1 ou K2.

(...)

(28/08/2014 09:42:33)

Simplivity sort une appliance Omnistack avec Cisco

Start-up installée à Westborough dans le Massachusetts, Simplivity continue de secouer le secteur de la virtualisation. Tout comme son concurrent Nutanix, la jeune pousse tente de s'y imposer avec ses solutions d'infrastructures IT hyperconvergentes. Alors que VMware, en partenariat avec plusieurs fournisseurs, vient de lancer sa propre appliance «EVO: Rail», Simplivity contre-attaque. Dans le cadre de la conférence VMworld 2014, la start-up a dévoilé la commercialisation prochaine d'une nouvelle mouture de sa pile logicielle Omnistack. Ainsi, après ses appliances baptisées Omnicube s'intégrant aux serveurs x86 de Dell, Simplivity va également mettre à disposition sa technologie Omnistack avec la plateforme Unified Computing System (UCS) C-Series signée Cisco.

Huit à douze fonctions de base assimilées

Doron Kempel, CEO de Simplivity, explique que cette offre répond à une demande croissante de la clientèle pour une solution intégrée avec les systèmes Unified Computing System de Cisco. Dans son communiqué, Simplivity spécifie que cette version d'Omnistack est capable d'assimiler huit à douze fonctions de base sur les serveurs montés en rack UCS C240 de Cisco. Dont les fonctions de calcul, de stockage, de commutation réseau, de sauvegarde, de réplication, de mise en cache, d'accélération WAN, de déduplication en temps réel ainsi que la passerelle de gestion des données dans le cloud. Les instances de l'infrastructure hyperconvergante Omnistack forment par ailleurs un cluster pouvent être géré globalement, de façon centralisée, à partir d'une seule interface via VMware vCenter. Omnistack s'intégrant aux serveurs UCS C240 de Cisco sera disponible dès le mois de novembre 2014, à partir de 54 850 dollars.

ICTjournal.ch

(...)

(27/08/2014 15:26:43)

Avec Ring 5.0, Scality apporte son stockage cloud aux VM VMware

A l'occasion du salon VMworld 2014 à San Francisco, du 24 au 28 aout, Scality a présenté la version 5.0 de son logiciel Ring, une solution de stockage cloud distribuée en mode objets et fichiers. Principale nouveauté de cette dernière mouture, le support de la plate-forme de virtualisation vSphere de VMware. Depuis 2009, la start-up - installée à San Francisco et Paris - travaille sur le stockage défini par logiciel avec une nette prédominance pour le mode bloc. Scality a bénéficié d'un marché en pleine mutation avec des clients qui recherchent des solutions logicielles indépendantes du matériel. Une révolution initiée par les grands acteurs du cloud. Comcast, Orange et DailyMotion font par exemple partis des clients de Scality.

Philippe Nicolas, directeur de la stratégie chez Scality, nous a expliqué que la solution Ring 5.0 se destine aux entreprises souhaitant utiliser une seule plate-forme fichier/objet mais avec les VM vSphere. « L'idée est de proposer une solution de cloud privée avec un comportement proche d'Amazon S3 et EBS (Elastic Bloc Storage) ». Coté performances, Ring 5.0 rivaliserait avec la solution d'Amazon EBS avec une capacité de 200 IOPS par VM et jusqu'à 3 000 IOPS en crête. Scality a développé les connecteurs pour supporter de manière linéaire jusqu'à des milliers de VM depuis vCenter (voir illustration ci-dessous). « Une fois le Ring configuré en mode fichier, il ne reste qu'à rattacher les VM pour distribuer le stockage avec les deux datastores historiques, NFS et VMFS. La montée en puissance est linéaire lors de l'agrégation de VM. Globalement, on peut empiler les VM sans baisse de performances  ».

Parmi les grands acteurs de l'objet, Scality est aujourd'hui le seul à supporter les environnements virtualisés. VMware pour commencer, mais également KVM via la pile Cinder d'OpenStack. « Nous avons des demandes pour Hyper-V, mais nous ne sommes pas encore complétement prêt pour proposer le support de CIFS », nous a indiqué P. Nicolas. Avec son Ring 5.0, Scality propose une solution de stockage unifiée pour les données des VM et des applications, avec un coût divisé par 10 pour chaque téraoctet. Le support de VMware est d'ailleurs une fonction gratuite dans Ring 5.0.

(...)

(27/08/2014 14:19:10)

Datacenters, les nouveaux pollueurs ?

Les datacenters installés sur le sol américain consomment trop d'électricité, et plus qu'ils n'en ont besoin. Aujourd'hui, il faut 34 centrales électriques de 500 mégawatts pour alimenter l'ensemble des datacenters en fonctionnement aux États-Unis. Selon les prévisions, en 2020, pour accompagner une activité économique toujours plus dépendante du numérique, il faudra 17 centrales supplémentaires de taille équivalente pour répondre à ces nouveaux besoins en énergie. Et pour produire plus d'électricité, il faudra consommer plus de combustibles fossiles, ce qui signifie donc une augmentation des émissions de gaz à effet de serre. Mais, selon un nouveau rapport sur l'efficacité énergétique des datacenters publié par la National Resources Defense Council (NRDC), une association de défense de l'environnement, ce surcroit de pollution n'est pas une fatalité. Au total, en 2013, les datacenters installés sur le territoire américain ont consommé 91 milliards de kilowatts-heures, et ils consommeront 139 milliards de kilowatts-heures en 2020, soit une augmentation de la consommation de 53 %.

 

Le graphique ci-dessus montre l'utilisation estimée d'énergie (en milliards de kilowatts-heures), et le coût de l'énergie utilisée par les datacenters aux États-Unis en 2013 et en 2020, avec le nombre de centrales électriques nécessaires pour répondre à la demande. La dernière colonne indique les émissions de dioxyde de carbone (CO2) en millions de tonnes (Source : NRDC). 

Selon le rapport de la NRDC, en améliorant l'efficacité énergétique des centres de calcul, il serait possible de réduire le gaspillage d'énergie d'au moins 40 %. L'association a listé les freins à l'efficacité énergétique : les serveurs dits « comateux » ou serveurs fantômes, qui consomment de l'énergie sans exécuter un quelconque travail ; le sur-provisionnement des ressources informatiques ; le recours insuffisant aux solutions de virtualisation ; des modèles d'approvisionnement qui ne prennent pas en compte la question de l'efficacité énergétique. « Typiquement, un serveur n'utilise pas plus de 12 % à 18 % de sa capacité, et 30 % des serveurs sont des serveurs fantômes », affirme le rapport.

Les géants du cloud parmi les plus efficaces

La NRDC s'est intéressée aux conséquences de l'inefficacité énergétique des datacenters au niveau national et a demandé à plusieurs entreprises, dont Microsoft, Google, Dell, Intel, The Green Grid, Uptime Institute et Facebook d'examiner ses résultats. « Ces échanges ont donné lieu à des contributions techniques importantes », a précisé l'association. Dans son rapport, le NRDC fait une nette distinction entre les grands datacenters gérés par les grands fournisseurs de cloud, dont la consommation d'énergie ne représente que 5 % de la consommation totale des datacenters, et les petits centres de calculs, moins efficaces. Le secteur offre « de nombreux exemples de centres de calcul ultra-efficaces », note le rapport. Ajoutant que « ceux-ci ne posent pas de problème ». Mais « ce sont les milliers d'autres, utilisés par les entreprises commerciales et l'administration, et les petits datacenters, corporate ou multi-propriétaires, qui posent problème », fait valoir le document.

Les efforts accomplis par les grands fournisseurs de cloud en matière d'efficacité énergétique « conduisent à imaginer que le problème est en grande partie résolu », a déclaré Pierre Delforge, directeur du département chargé de suivre l'efficacité énergétique du secteur high-tech à la NRDC, « mais cela ne correspond pas à la réalité, car il faut prendre en compte la totalité des centres de calcul ». Les datacenters sont « l'un des rares gros secteurs industriels où la consommation électrique augmente », a ajouté Pierre Delforge. « Cette augmentation de la consommation électrique des datacenters pousse la demande, laquelle se traduit par la création de nouvelles centrales électriques dans certaines régions », a-t-il ajouté.

La colocation pose problème 

Pour les entreprises qui choisissent la colocation, les centres de calcul multi-tenant ne sont pas forcément synonymes d'efficacité. Le système de tarification de ces services est basé sur l'occupation, le nombre de racks ou la superficie, plus une limite sur la quantité d'énergie au-delà de laquelle le client doit payer des frais supplémentaires. Ce modèle n'incite pas à utiliser l'équipement de manière aussi efficace que possible. Selon le rapport, l'an dernier, la totalité des datacenters installés sur le sol américain ont consommé 91 milliards de kilowatts-heures, « soit deux fois plus, et avec de la marge, que la quantité nécessaire à alimenter tous les habitants de New York en électricité ». Selon les estimations, en 2020, la consommation annuelle des datacenters devrait atteindre 140 milliards de kilowatts-heures.

« Si les entreprises adoptaient de meilleures pratiques énergétiques dans les datacenters, les avantages économiques seraient considérables », estime encore le rapport de la National Resources Defense Council. Une réduction de 40 % de la consommation d'énergie permettrait aux entreprises d'économiser 3,8 milliards de dollars. Et selon le rapport, une réduction de 80 % est techniquement possible. L'étude constate également que l'effort pour améliorer l'efficacité énergétique progresse peu. Mises à part certaines initiatives évidentes, comme l'isolement des allées chaudes et froides, les investissements supplémentaires pour améliorer l'efficacité énergétique sont plus difficiles à justifier, soit à cause du coût, soit parce que les gestionnaires IT craignent que certaines mesures ne contribuent à augmenter le risque. Les responsables informatiques sont « extrêmement prudents » et rechignent à mettre en oeuvre des programmes contraignants de gestion de l'énergie parce qu'ils redoutent un effet négatif sur la disponibilité », note le rapport.

L'Europe incite aussi à l'amélioration de ses datacenters 

Plusieurs indicateurs permettent de mesurer l'efficacité énergétique des datacenters, et le rapport recommande le développement d'outils pour surveiller l'usage du processeur, estimer l'usage moyen des serveurs et du datacenter. Selon la NDRC, « une généralisation de ces mesures simples permettrait d'avoir une meilleure visibilité sur l'efficacité énergétique, et inciterait davantage les opérateurs à optimiser l'usage de leurs ressources IT ». L'association n'est pas la première à se pencher sur la question. En 2007, l'Agence de protection de l'environnement américaine avait travaillé sur le sujet avec un grand nombre d'opérateurs de datacenters et de groupements industriels. Le rapport sur la consommation d'énergie des datacenters publié à l'époque avait établi qu'entre 2000 et 2006, la consommation d'électricité des serveurs et des centres de calculs avait plus que doublé et l'agence appelait déjà à l'amélioration de l'efficacité énergétique des centres de calcul.

L'arrivée prochaine d'une taxe carbone en Europe et la nécessité d'abaisser la consommation des datacenters qui se multiplient comme des petits pains ont amené le CRIP (Club des Responsables d'Infrastructure et de Production) et la CTO Alliance à travailler sur un indicateur du nom de DCEM (Data Centre Energy Management) capable de benchmarker les différents types de datacenters en Europe et d'enterrer par la même occasion le très décrié PUE, très utilisé par les anglo-saxons, puisqu'il permet d'afficher des notes flatteuses en simulant la pleine charge.

 

(...)

(27/08/2014 12:25:24)

VMworld 2014 : vSphere 6.0 améliore l'allocation du stockage

Fin juin, VMware a créé la surprise en annonçant une bêta publique du successeur de vSphere 5.5, en l'occurrence vSphere 6.0. L'initiative était tout à fait inhabituelle pour l'éditeur, puisque c'était la première fois qu'il invitait tout un chacun à tester la prochaine version de sa plateforme de virtualisation de serveurs. L'annonce de sa disponibilité n'a pas manqué d'être rappelée sur la conférence VMworld 2014 qui se tient cette semaine à San Francisco. Les ambitions de VMware s'étendant désormais à l'ensemble du datacenter, il lui est indispensable de recueillir en amont et plus largement les retours d'expérience sur les tests effectués par les entreprises. Dans vSphere 6.0, VMware transforme complètement la façon de présenter, gérer et utiliser le stockage associé aux machines virtuelles. Avec l'ajout de VVols, « Virtual Volumes », une VM et son espace de stockage ne sont pas considérés comme une unité logique (LUN), mais vu par un système de stockage comme une unité de gestion de stockage. Les volumes virtuels encapsulent les disques virtuels et autres fichiers de VM et les stockent nativement sur le système de stockage. 

En recourant aux API VASA (vSphere APIs for Storage Awareness), le système de stockage voit les volumes et leurs associations avec les VM correspondantes. Dès lors, il communique de façon bidirectionnelle « out-of-band » avec vSphere pour gérer les services de données et récupérer certaines opérations telles que les snapshots et les clones. Pour la communication « in-band » avec VVols, vSphere continue à utiliser les protocoles SCSI et NFS standard, ce qui permet le support de tout types de stockage (iSCSI, Fibre Channel, FCoE, NFS), expliquait VMware en juin dernier. Comme bénéfice à VVols, l'éditeur met en avant la transformation opérationnelle quand les services de données peuvent être mis en oeuvre au niveau de l'application, ainsi qu'une allocation du stockage à un niveau plus granulaire.

Voilà déjà plusieurs années que VMware parle de ce mode de fonctionnement et il aurait sans doute pu le livrer plus tôt. Peut-être a-t-il voulu donner un peu de champ à sa solution Virtual SAN (vSAN) qui permet d'accroître les capacités de stockage des instances virtualisées, en constituant un pool de stockage virtuel à distribuer de façon plus granulaire. En attendant, VMware a aussi laissé le champ à différents fournisseurs, comme PernixDataInfinIO ou Scality, dont les solutions gravitent autour de la plateforme de virtualisation de VMware pour optimiser le stockage sur les VM.

(...)

(27/08/2014 09:29:49)

VMworld 2014 : Avec EVO: Rail, VMware s'attaque à Nutanix

Dans le cadre de la conférence VMworld 2014, VMware a lancé son appliance d'infrastructure hyper-convergée. Finalement baptisée «EVO: Rail», cette solution pour la mise en place d'environnements de virtualisation était jusqu'ici connue sous le nom de «Projet Mystic» ou de «Marvin». Avec cette offre d'infrastructure convergente (serveur, stockage et réseau), VMware communique avoir l'objectif de permettre à ses clients de rationaliser le déploiement et la montée en charge d'infrastructures informatiques pilotées par logiciel, en fonction de la croissance de leur activité. Un marché déjà occupé par Nutanix ou Simplivity qui ont compris bien avant VMware l'intérêt d'une telle solution. Pour le déploiement de cette appliance caractérisée par un stack logiciel intégré 100 % avec son environnement, VMware s'est entouré des fournisseurs hardware Dell, Fujitsu, Inspur, NetOne et Supermicro. Mais aussi de sa maison-mère EMC. Rappelons que cette dernière participe aussi, avec VMware et Cisco, au consortium VCE, lequel propose la solution d'infrastructure convergente Vblock.

Une solution adaptative

En tant que partie intégrante d'un centre de données «software-defined» (SDDC), EVO Rail comprend des logiciels intégrés de calcul, de réseau, de stockage et de gestion. Cette solution permet de débuter avec une seule appliance de quatre noeuds et de passer si besoin à quatre appliances pour un total de seize noeuds. Les entreprises clientes peuvent ainsi s'adapter à la croissance de leurs besoins. Dans son communiqué, l'éditeur spécifie: « Les nouvelles appliances ajoutées à un cluster VMware EVO Rail existant seront automatiquement détectées, pour se lancer en seulement quelques clics. Une seule appliance peut supporter près de 100 machines virtuelles d'usage générique, ou 250 machines virtuelles associées à des postes de travail virtuel, et intégrera une capacité de données VMware Virtual SAN d'une capacité approximative de 13 To1 ». EVO Rail sera disponible à partir de la seconde moitié de l'année 2014 auprès des partenaires, lesquels fixeront eux-mêmes leurs tarifs.

(...)

Les 10 documents suivants >


Publicité
Publicité
Publicité