Flux RSS
Virtualisation
557 documents trouvés, affichage des résultats 151 à 160.
| < Les 10 documents précédents | Les 10 documents suivants > |
(11/05/2010 14:23:21)
Microsoft minimise les avantages du VDI
« Dans l'ensemble, comparée à un environnement de bureau bien géré, une VDI s'avère généralement 9 à 11% plus chère que l'environnement PC correspondant,» écrit ainsi Gavriella Schuster, responsable du groupe de gestion commerciale des produits Windows. Celle-ci fait également remarquer que les utilisateurs de bureaux virtuels se plaignent d'une « expérience... peu satisfaisante», en particulier du fait que « la performance des applications est directement liée à la connectivité du réseau. »
« Ce message a pour but d'aider les clients à décider dans quelles circonstances ils doivent utiliser la VDI, la virtualisation client ou les applications virtualisées, » a déclaré Gavriella Schuster dans une interview. « Microsoft fera payer les droits de licence du système d'exploitation, quelle que soit la manière dont l'OS est déployé, l'éditeur laissant toute liberté à ses clients quant au mode de redistribution de l'OS à leurs utilisateurs, » a t-elle ajouté. «Nos clients professionnels travaillent dans des environnements complexes avec des types d'utilisateurs très différents. Il y a donc des situations où l'application du VDI est évidente, » explique t-elle. « Chaque client aura une VDI, et nous essayons de les aider à comprendre à quoi elle peut servir et quand elle n'est pas adaptée. »
Quant aux estimations de coûts, établies sur la base d'une enquête réalisée auprès d'une centaine de clients ayant échangé leur expérience de déploiements VDI avec Microsoft, tous n'arrivent pas aux mêmes conclusions. Ainsi, « Computer Sciences Corp a comparé les coûts de fonctionnement de 5 000 ordinateurs de bureau avec 5 000 instances VDI pour constater que, dans l'ensemble, un bureau virtuel coutait 20 % de moins, » a déclaré dans une récente interview Phil Grove, directeur mondial des services de virtualisation de bureau pour l'utilisateur final chez CSC. Cette entreprise gère environ 1,2 million de postes de travail pour ses clients, dont quelques uns sous forme de bureaux virtuels. « Dans certains cas, la VDI peut même être plus rapide que les ordinateurs de bureau, selon le réseau et le datacenter, » a déclaré Phil Grove. Dans d'autres cas, en raison des besoins en bande passante et des capacités de traitement, il faut admettre que certains utilisateurs « auront toujours besoin d'un poste de travail. »
Illustration Microsoft, crédits D.R.
[[page]]
Microsoft a récemment établi un partenariat avec Citrix afin d'offrir des solutions VDI. Mais le message de Gavriella Schuster conseille de n'utiliser la VDI que « dans des cas spécifiques. » Par exemple, la VDI va de soi quand les salariés ont besoin d'avoir accès à deux ordinateurs de bureau dans deux endroits différents. Il semble également logique pour la répartition du travail quand un seul PC est partagé par plusieurs employés. Son message va aussi à l'encontre de certaines hypothèses communément admises sur les avantages du VDI, notamment dans les utilisations professionnelles ordinaires : « certes, la VDI réduit les coûts en matériel, mais elle accroît les coûts en logiciels. Elle réduit les coûts d'assistance, mais augmente les coûts d'ingénierie, » fait valoir Microsoft.
Dans son interview, Gavriella Schuster indique également que Windows 7 « annule beaucoup de motifs » qui pourraient inciter les entreprises à envisager de passer à la VDI, en particulier avec leurs copies de Windows XP ou Vista. L'une des raisons pour lesquelles les gestionnaires informatiques ont été amenés à considérer la VDI, c'est qu'elle réduit le nombre de système d'exploitation différents à prendre en charge et à maintenir, puisqu'un seul OS peut être utilisé pour plusieurs clients. Mais la gestion image de Windows 7 a été simplifiée afin que les administrateurs n'aient pas à générer d'image pour chaque machine, réduisant de fait le nombre total d'images à maintenir. Seven offre également de nouvelles fonctionnalités pour aider dans la répartition des ressources et l'assistance à distance, deux autres points forts généralement attribués aux VDI.
(...)(06/05/2010 09:29:37)Netasq lance à son tour des solutions virtualisées
C'est dit : il y aura désormais des boîtiers de sécurité virtuels chez Netasq. Le constructeur français vient en effet d'annoncer le lancement de ses offres d'UTM (Unified Threat Management) pour les environnements virtualisés. Elles seront compatibles avec les deux solutions logicielles leaders de ce marché, VMWare et Citrix.
Ces appliances virtuelles seront déclinées en trois gammes : les solutions VS5 et VS10 pour serveurs (5 ou 10), les V50, V100, V200 et V500 pour PME (de 50 à 500 postes) et les VU (Virtualization Unlimited) pour grandes entreprises (nombre de postes illimité).
Pour commercialiser cette offre, Netasq dispose de trois leviers : ses partenaires actuels (en France, une dizaine sur 150 se sont portés candidats), les partenaires de VMWare et de Citrix, et les grands intégrateurs (tels que Telindus ou Orange Business Services, entre autres). Netasq entend bien les actionner tous les trois, mais n'avance pas d'objectifs chiffrés. « Ce segment vient de naître au sein d'un marché lui-même émergeant, explique Xavier Lefaucheux, Manager de Netasq pour l'Europe de l'ouest et du sud. Il serait donc hasardeux d'avancer le chiffre précis de nos partenaires potentiels ».
Changement de modèle
Quoi qu'il en soit, ces offres introduisent un modèle économique complémentaire chez Netasq : il ne s'agit plus de revendre des appliances de sécurité, mais de commercialiser des « droits d'usage », une démarche plus proche du service que du négoce. De fait, le constructeur espère bien que ces lancements génèreront du chiffre d'affaires additionnel, sans cannibaliser les ventes d'UTM traditionnels.
Depuis 2002, NETASQ a en effet habitué le marché à des progressions annuelles de 25% en moyenne, et ces nouveautés sont les bienvenues pour qu'il conserve ce rythme de croissance.
En ce qui concerne les UTM « traditionnels », NETASQ a pour principaux concurrents le Français Arkoon et l'Américain Fortinet. Dans le domaine des appliances virtuelles, il sera principalement confronté à lAméricain Stonesoft, qui ambitionne de son côté de disposer d'une cinquantaine de partenaires dédiés aux environnements virtualisés à la fin de cette année.
(...)
Bureaux virtuels : abondance et différences laissent perplexes
Leader du marché, Citrix Systems travaille dur pour déployer des bureaux virtuels dans des domaines que l'entreprise n'a pas toujours développé. A l'automne dernier, elle a mis sur le marché une version de sa solution Xen Desktop laissant à ses clients la possibilité de choisir une méthode de délivrance des applications parmi six disponibles. Juste derrière, son concurrent VMware, lui-même talonné par Microsoft et plusieurs fournisseurs d'add-on et d'intégrateurs Open-Source, proposent des solutions similaires. On retrouve également en bout de chaîne, des offres de clients légers ou de « zéro client », comme Pano Logic ou NComputing. « Ajoutez à cela la possibilité offerte par des prestataires externes de type SaaS de délivrer des applications en streaming aux utilisateurs finaux, d'accéder à tout ou partie d'un bureau virtuel à partir du cloud via une plate-forme de service, d'héberger une machine virtuelle sécurisée dans un environnement personnel non sécurisé type iPad, smartphone et autres terminaux mobiles - et le choix devient très compliqué » explique Chris Wolf, analyste en infrastructure et en virtualisation chez Burton Group.
«La plupart des entreprises qui me parlent de bureau virtuel finissent par abandonner leur projet à cause des coûts, en particulier ceux relatifs aux licences qui, généralement, reviennent, à peu de choses près, aussi chers que de monter un PC complet en place d'un bureau virtuel » selon Roger Johnson, responsable technique pour Enterprise Systems Group auprès du revendeur de solutions audio / vidéo hauts de gamme Crutchfield Media.
[[page]]
Il est intervenu lors du TechEd de Microsoft et a participé aux conférences VMWorld, pour expliquer qu'il a virtualisé des serveurs, mais pas des postes de travail chez Crutchfield. « Les licences Windows compatibles VDI annoncées par Microsoft le mois devraient néanmoins être plus attractives » a t-il déclaré.
Peu d'outils de test et un apprentissage lent
« Autre problème, les utilisateurs trouvent peu, voire aucun test de type benchmark permettant de comparer les performances des différents bureaux virtuels proposées par Citrix et VMware, sans parler de ceux vendus par les fournisseurs de cloud, » selon Brian Madden analyste indépendant, spécialisé dans les bureaux virtuels. Le mois dernier celui-ci a publié sur son site BrianMadden.com un rapport sur les Virtual Desktop Interface (VDI) qui « effleure à peine cette technologie » donnant tout juste l'avantage à Citrix face à VMware View pour la plupart des usages, « bien que l'expérience des deux fait plus penser à des applications composites qu'à des solutions abouties » dit-il.
« En 2008, à cause des coupes budgétaires et la nécessité d'équiper trois nouvelles écoles, la Montgomery Independent School au Texas a choisi Citrix à la place de Pano Logic, car celui-ci offrait une meilleure prise en charge graphique pour des applications spécifiques, » a déclaré George Thornton, directeur des opérations réseaux pour le groupe scolaire. Les coûts d'entretien étaient nettement inférieurs à celui d'un réseau de PC comparable, mais le projet a dû être élargi pour inclure trois serveurs tournant avec des solutions différentes, leurs applications virtuelles et la VDI, s'adaptant ainsi aux besoins particuliers des groupes d'utilisateur.
« C'est assez banal aujourd'hui, mais cela pourrait devenir inutile si l'évolution vers le cloud et les applications virtualisées continue au point d'amener les départements informatiques à se concentrer sur la création d'environnements virtuels personnalisés, de manière à donner à chaque employé le choix d'utiliser la solution qui lui convient le mieux, » dit Chris Wolf. « Un grand nombre de départements informatiques évoquent cette possibilité, mais ils la tiennent en réserve tant que la sécurité des bureaux virtuels n'aura pas fait ses preuves, » a dit Roger Johnson. « Le coût du projet, même s'il est faible, doit prendre en compte une période d'apprentissage, car personne ne veut avoir à payer quelques milliers de dollars pour chaque perte de carte de crédit ou pour la violation du Health Insurance Portability and Accountability Act (HIPAA) » a t-il ajouté.
Interop 2010 : la portabilité des services cloud au coeur des débats
« Probablement dès cette année, nous aurons les moyens de faciliter le déplacement de la charge de travail des centres de calcul internes vers des services cloud externes, à l'aide d'un logiciel » a expliqué Randy Rowland, vice-président en charge du développement produit chez Terremark. Les clients veulent avoir l'assurance de pouvoir rapatrier une charge de travail confiée à un cloud dans leur datacenter si les circonstances le permettent », a-t-il ajouté. « Les entreprises ont peur de rester bloquées. Certains obstacles réseaux existent effectivement, comme le changement des adresses IP, pour lequel il faut trouver une méthode plus facile ». Pour Simon Crosby, CTO de Citrix, « cette préoccupation autour de la transférabilité est prise en compte. Les vendeurs savent qu'elle existe et qu'ils doivent trouver des solutions. »
« Les images de la machine virtuelle Amazon, utilisées sur le service cloud Amazon EC2, très répandu, sont en propriété exclusive et difficiles à répartir sur les réseaux d'entreprise, » a souligné de son côté Alistair Croll, fondateur de Bitcurrent. Mais Simon Crosby a constaté des progrès dans certains domaines, comme la norme Open Virtualization Format (OVF). Selon lui, elle rend la charge de travail indépendante de l'hyperviseur, et permet l'interopérabilité entre des plates-formes de virtualisation multiples. « La virtualisation a permis d'améliorer la portabilité des charges de travail entre serveurs, mais les premières versions des offres « Infrastructure-as-a-Service » pour le Cloud manquaient de ressources en matière de réseaux, et il faudra trouver de nouvelles méthodes pour les renforcer et améliorer la portabilité », a précisé Simon Crosby.
Illustration Alistair Croll, fondateur de Bitcurrent, Crédits D.R.
[[page]]
Kristof Kloeckner, CTO d'IBM, autre conférencier présent à Interop, a déclaré dans une interview que le déplacement des charges de travail depuis les centres de données internes vers les cloud n'était pas difficile. Selon lui, « les problèmes surviennent lorsque les applications demandent qu'un grand nombre de données soient transférées vers le cloud. » Certaines démonstrations faites à Interop ont montré le déplacement d'applications entre différents clouds, mais « la plupart des exemples sont vraiment basiques dans le sens où ils ne déplacent pas de volumes de données très importants », a expliqué le CTO d'IBM. Selon lui, les applications à base de grid, les simulations, ou les charges de travail occasionnelles (saisonnières notamment) sont sans doute bien adaptées au déplacement temporaire vers un cloud. « Les services clouds s'intègreront les uns aux autres », a-t-il ajouté au cours de son allocution. « Surtout, ils devront rester ouverts. C'est un de nos objectifs majeurs. Ce qui se passe aujourd'hui est un changement fondamental. Cela montre la nécessité d'introduire plus de souplesse dans le déploiement des services informatiques. »
« Dans l'avenir, il y aura essentiellement trois catégories d'applications », a poursuivi de son côté Alistair Croll, de Bitcurrent. Celles qui resteront toujours à l'intérieur du datacenter de l'entreprise, celles qui pourront être exécutées indifféremment en interne ou au sein d'un service cloud si cet hébergement a un sens sur le plan économique, et une troisième catégorie qui demeurera toujours en cloud, notamment si l'application doit être partagée avec des partenaires. »
La question de savoir si les entreprises doivent déplacer des applications existantes vers des services cloud externes n'est pas toujours facile à résoudre. Certains intervenants présents à Interop ont laissé entendre que si les clients sont prêts à déplacer de nouvelles applications vers le cloud, ils ne savent pas encore si l'effort et les coûts de transfert de leurs applications existantes correspondent à un vrai gain en termes de budget.
(...)(28/04/2010 17:32:54)Red Hat étend son support Premium à ses VM sur le cloud Amazon
Cette option permettra aux abonnés Premium de déplacer leurs VM entre le datacenter et le cloud, en précisant que les frais d'abonnement Premium s'élèvent à 1 300 dollars US par an pour un serveur équipé au maximum de deux sockets processeur, et à 2 500 dollars pour un machine avec trois emplacements ou plus. Cependant, tous les clients ne sont pas éligibles à la formule Access Cloud puisqu'il faut en effet disposer au minimum de 25 abonnements Premium actifs et disposer d'un contrat de support direct avec Red Hat. En d'autres termes, les clients ayant achetés leur support Red Hat via un tiers ou par l'intermédiaire d'équipementiers OEM ne sont pas admis au programme, selon le site web de Red Hat.
« L'objectif est de faciliter l'ajout de capacité serveurs à l'aide du cloud ou le déplacement de VM entre le centre de calcul et le cloud, et vice versa, sans avoir à se préoccuper de la manière dont est assurée l'administration, » explique Magnus Svensson, directeur de Red Hat pour les pays nordiques. Selon Red Hat, avec Cloud Access, les clients pourront continuer à utiliser leurs contacts et leurs méthodes habituelles pour obtenir le support en matière de gestion et d'administration serveurs. Red Hat s'engage également à livrer les dernières versions disponibles d'Enterprise Linux pour Amazon EC2 en même temps que celles destinées aux déploiements traditionnels sur site, de manière à augmenter la cohérence entre les deux mondes.
Illustration, crédits Red Hat
(...)(22/04/2010 17:36:18)Microsoft se penche sur l'administration du cloud
Organisé à Las Vegas et un peu perturbé par le nuage de cendres (la majorité des participants européens n'a pu s'y rendre), l'évènement MMS a résolument consacré la stratégie du géant de Redmond dans le cloud. A travers des démonstrations, des annonces, Microsoft estime que l'administration est la pierre angulaire du développement des différentes offres de services informatiques hébergées en interne ou en externe. Pour Geneviève Koehler, chef de produit System Center chez Microsoft « nos clients sont de plus en plus intéressés par l'agilité du cloud, mais ils ont besoin d'outils d'administration pour se préparer à cette migration et être accompagnés étape par étape ».
Pour cela, l'éditeur a présenté Dynamic Infrastructure Toolkit pour System Center, qui sera disponible dans sa deuxième version bêta à la fin juin 2010. Il s'agit d'un guide de bonnes pratiques pour réaliser son cloud privé. Pour assurer l'étape ultérieure qui est de porter les applications vers les clouds publics, Microsoft travaille sur un Pack Management pour son logiciel Azure, qui intégrera une console d'administration commune sur le datacenter et auprès de l'hébergeur. Pour cette offre, qui est élaborée dans les laboratoires de l'éditeur, il faudra attendre fin 2011 pour son lancement.
Une offre dédiée PME-PMI
La vedette de cette conférence s'appelle Windows Intune et se définit comme un service en ligne pour l'administration et la sécurisation de parcs d'ordinateurs. Ce service s'adresse aux entreprises de taille moyenne disposant de 25 à 500 PC. Il comprend un service d'administration en ligne (System Center online), une protection anti-malware (Microsoft Malware Protection Engine) ainsi que la Software Assurance Windows 7 et la suite MDOP (Microsoft Desktop Optimization Pack). Cette dernière comprend plusieurs briques de fonctionnalités y compris de virtualisation. Fonctionnant sur les versions XP SP2, SP3, Vista de Windows, cette offre sera facturée par un abonnement unique, mais aucun tarif n'a été communiqué. Elle est disponible en version bêta aux Etats-Unis et la version commerciale n'est pas attendue avant un an.
Red Hat écarte Xen de RHEL 6 version beta
« Red Hat a choisi de concentrer ses efforts de virtualisation autour de la machine virtuelle sur Kernel KVM, » a déclaré Tim Burke, vice président de l'ingénierie pour la plate-forme Red Hat.Dans cette version, «la virtualisation a été l'objectif essentiel et nous avons considéré l'infrastructure qui pouvait être intégrée à nos services cloud» souligne Tim Burke. Pour être efficient dans les environnements cloud, l'OS RHEL 6 alloue dynamiquement les données au sein du noyau. Une fois les machines virtuelles chargées dans le système d'exploitation, l'administrateur peut spécifier la quantité de mémoire, le nombre de cycles de traitement et la quantité de bande passante qu'il souhaite attribuer à chaque machine.
L'autre fonctionnalité s'appelle le Completely Fair Scheduler (SCF), auquel revient la responsabilité de « répartir de manière plus dynamique les charges de travail entre les tâches » en redistribuant plus uniformément les ressources processeurs entre toutes les applications. Le système emprunte les techniques logiciels de Red Hat pour exploiter les services sans tolérance de latence, comme il accomplit aussi un travail plus sophistiqué de planification des priorités, en hiérarchisant les tâches, de la plus haute à la plus faible priorité » affirme Tim Burke. Des fonctions d'économies d'énergie ont également été ajoutées. Ainsi, l'infrastructure d'horloge a été réorganisée et force l'activité « ticketless » du noyau. Auparavant, ce dernier devait dialoguer avec le processeur 1 000 fois par seconde pour l'empêcher de passer en mode veille et ainsi économiser l'énergie. La fonctionnalité « tickless » repose un système de minuteries accordées au hardware, autorisant le processeur à se mettre en veille pendant des périodes où il n'y a pas d'autres tâches à effectuer.
L'espace occupé par les fichiers système a été amélioré pour être plus adapté aux ensembles de données importants. C'est notamment la première version de RHEL à utiliser ext4 comme fichier système par défaut, en place du ext3 auparavant. Le système d'exploitation peut maintenant exécuter des fichiers système d'une taille allant jusqu'à 16 téraoctets.
[[page]]
Il sait également effectuer une vérification système plus rapidement, impliquant une amélioration des temps de récupération lors d'arrêts inopinés. Pour les données de très grande taille, la solution de Red Hat propose une option pour mettre à niveau le fichier système du format XFS au format SGI qui peut prendre en charge des capacités allant jusqu' à 128 To.
Une décision cohérente
Au regard de l'implication de Red Hat dans le cloud computing, sa décision de laisser de côté Xen peut paraître surprenant. Mais ces dernières années, l'entreprise a apporté de plus en plus de soutien à KVM. Pour rappel, en 2008, Red Hat avait acquis l'éditeur de logiciel de virtualisation Qumranet, dont les développeurs sont en grande partie à l'origine de KVM. « L'une des raisons pour lesquelles Xen a été abandonné » expose le responsable, « est que la société ne peut dédoubler tous ses efforts pour maintenir deux hyperviseurs, une tâche exigeante qui réclame beaucoup d'implications. C'est le cas par exemple avec les serveurs équipés du processeur Nehalem d'Intel livré récemment qui apporte certaines fonctionnalités de virtualisation et implique la modification des deux logiciels. »
Simon Crosby, co-fondateur de XenSource et actuellement directeur de la technologie de la plateforme logicielle chez Citrix, a déclaré qu'il n'était pas surpris par la décision de Red Hat d'abandonner Xen. « Il est logique de ne soutenir qu'un seul code source, et Red Hat n'a pas contribué à enrichir le code Xen depuis plusieurs années ». Il fait remarquer que « avec Xen, Red Hat n'a pas eu beaucoup de chance sur le marché de la virtualisation. Ils ont même été vraiment mauvais sur le marché entreprise. Maintenant, ils ont cinq ans de retard par rapport au reste de la communauté ». Ce dernier a également noté que l'adoption de KVM par Red Hat va dans le sens opposé des autres acteurs du marché de la virtualisation serveur, et notamment Citrix et VMware. Ces derniers se tournent aujourd'hui vers des solutions d'infrastructure virtuelle allégées, pour lesquelles toutes les fonctions serveurs sont virtualisées. En revanche, KVM s'appuie sur le noyau de l'OS, et fonctionne uniquement sous machines virtuelles tournant sous Linux. «C'est une option Linux-first » souligne Simon Crosby.
Dans tous les cas, le passage à KVM nécessitera un certain travail de la part des utilisateurs actuels de Red Hat Entreprise Linus qui devront faire migrer leurs machines virtuelles Xen vers KVM (ou les obliger à installer Xen séparément). « Pour donner accès à des invités Xen RHEL 5 sur RHEL 6, il faut lancer un outil de conversion et de migration» a précisé Tim Burke.
Trimestriels Citrix : Des résultats conformes et en hausse
Le fournisseur de solutions de virtualisation met en avant un chiffre d'affaires en hausse de 12% au premier trimestre 2010 pour atteindre 414 millions de dollars contre 369 millions de dollars l'année précédente. Le bénéfice net non ajusté s'élève quant à lui à 47 millions de dollars contre 7 millions de dollars au premier trimestre 2009.
Mark Templeton, PDG de Citrix, s'est déclaré satisfait de ces résultats et constate « une forte demande sur les marchés stratégiques : la virtualisation, l'infrastructure réseau et la collaboration ». Le premier trimestre 2010 a été l'occasion pour Citrix de lancer la version Pack 1 de XenDekstop 4, pour la virtualisation du poste de travail. Sur ce sujet, l'éditeur s'est associé à Microsoft pour accélérer l'adoption et le déploiement de telles solutions.
Fort de ces bons résultats, Citrix prévoit un chiffre d'affaires pour 2010 compris entre 1,765 et 1,78 milliard de dollars.
L'hyperviseur KVM progresse dans le cloud
The Planet gère en co-location sept centres de données dans le monde, comptabilisant 20.000 clients qui font tourner 15 millions de sites Web. Et plus de 80% utilisent déjà linux. Mais The Planet est un nouveau venu dans l'espace du cloud. Son service est en version bêta publique et comprend plus de 500 serveurs virtuels tournant sur des machines Dell à base de processeurs Intel Nehalem dual-core.
Pour les développeurs sous Linux, KVM est plus facile à utiliser que Xen, car il « n'a jamais été vraiment intégré à Linux » explique Carl Meadows, responsable senior du marketing produit pour The Planet. KVM, de son côté, « a été construit directement dans Linux et l'utilise comme hôte. Il est beaucoup plus simple et plus élégant que Xen » commente-t-il. « Cette intégration facilite également la distribution de correctifs aux clients, alors que le même déploiement à partir d'un autre logiciel de virtualisation nécessite plus de travail » ajoute le responsable. « En outre, KVM permet à The Planet de laisser à ses clients toute liberté pour personnaliser le noyau tournant sur leurs serveurs virtuels, de même que la portabilité du logiciel permet aux machines virtuelles de migrer facilement vers des serveurs physiques et vice versa. Depuis que KVM fonctionne en mode natif, il est beaucoup plus facile pour nous de créer un environnement hybride dynamique que Xen ne le permet » dit encore Carl Meadows.
Amazon EC2, un des géants du marché du cloud public, utilise Xen pour la virtualisation. Mais Carl Meadows pense que KVM peut devenir l'hyperviseur open source de référence sur le long terme, et certains déploiements choisis récemment par IBM viennent renforcer ses arguments. Même si The Planet fait tourner KVM sur Ubuntu, alors qu'IBM a préféré la version Red Hat.
[[page]]
Ce dernier et KVM semblent également avoir gagné l'intérêt de Novell, puisque ce dernier l'utilisera dans la version 11 de son serveur SUSE Linux Enterprise. Evidemment, Novell continue de supporter Xen.
Des avantages reconnus par les concurrents
Quant à Simon Crosby, CTO de Citrix, il écrit sur son blog « il faut s'attendre à ce que Novell supporte KVM ». Le bloggeur reconnaît aussi que cette solution présente certains avantages : « Il est important de réaliser que pour un fournisseur de solutions Linux, KVM simplifie considérablement l'ingénierie, les essais et le conditionnement pour les déploiements. Il se comporte comme un driver intégré au noyau, alors que Xen exige que le fournisseur choisisse une version particulière de la solution de virtualisation de Citrix ». Mais au final, il conclut que « les préférences utilisateurs sont plus importantes que le reste et là, c'est Xen qui l'emporte, en partie parce qu'il offre une compatibilité avec des systèmes d'exploitation et des hyperviseurs multiples ».
« Si le contexte implique que le client achète, installe et fasse fonctionner Linux pour mettre en place sa virtualisation, alors KVM pourra probablement convenir » prédit le dirigeant de Citrix. « Par contre, si l'utilisateur souhaite déployer une plateforme de virtualisation agnostique par rapport à l'OS du serveur hôte, pour réaliser une infrastructure virtuelle complète, c'est vers un hyperviseur de type 1, vers lequel il se tournera. » Bien que Citrix dispose d'un solide partenariat avec Microsoft, le responsable technique souligne que « s'appuyer sur un éditeur de système d'exploitation est problématique, car aucun n'a encore travaillé à une virtualisation des produits concurrents, et qu'il n'y aucun intérêt stratégique à le faire ».
Dans le cas de The Planet, le débat est moins Xen contre KVM que Xen contre VMware. L'opérateur propose en effet un service d'hébergement managé qui utilise VMware en complément de KVM sur son offre cloud. Le choix de cette solution est dicté par la popularité des solutions VMware et la demande des clients qui souhaitent débuter la virtualisation par un cloud privé. « KVM ne disposent pas de certaines fonctionnalités incluses dans VMware, comme la migration en temps réel et la déduplication de RAM, » explique Carl Meadows. Le développement de KVM peut également s'appuyer sur la communauté Open Source, mais en termes d'outils de gestion, il est encore loin derrière VMware. C'est d'ailleurs cette différence qui justifie son prix.
| < Les 10 documents précédents | Les 10 documents suivants > |