Flux RSS
Virtualisation
557 documents trouvés, affichage des résultats 111 à 120.
| < Les 10 documents précédents | Les 10 documents suivants > |
(30/09/2010 17:18:19)
La virtualisation s'invite sur les tablettes et les smartphones
Les prochaines générations de smartphones et de tablettes tactiles pourront exécuter plusieurs systèmes d'exploitation et faire tourner de puissantes applications cloud comme des jeux en HD, grâce à l'utilisation progressive de machines virtuelles sur les appareils mobiles. C'est ce qu'ont déclaré certains experts cette semaine lors de la conférence Tech Linley Processor qui se tient à San José, Californie. "Des processeurs plus rapides permettront à ces appareils d'exécuter les applications plus rapidement, et la virtualisation pourra aider à une consolidation des applications, c'est-à-dire à un usage optimisé des ressources," a déclaré Linley Gwennap, analyste pour le Groupe Linley.
Déjà largement adoptée dans les centres de calcul, la virtualisation a contribué à optimiser les serveurs et à réduire les coûts énergétiques. La technologie pourrait maintenant avoir un impact sur les appareils mobiles comme les smartphones, aider à la gestion de tâches critiques en temps réel et à la sécurisation des environnements logiciels hétérogènes. Les utilisateurs devraient pouvoir profiter des avantages de cette future génération d'appareils mobiles plus puissants à la fin de l'année. LG Electronics, par exemple, a déjà annoncé un smartphone Optimus avec processeur Arm double coeurs cadencé à 1 GHz, capable également de lire des vidéos HD en 1080p. Le terminal sera disponible au quatrième trimestre 2010. Ce n'est qu'un des exemples de ces futurs gadgets mobiles qui pourraient tirer parti de la virtualisation.
Une autre utilisation des plates-formes mobiles
"La virtualisation pourrait également entraîner une diminution du coût des smartphones et une augmentation de leur autonomie," a déclaré Steve Subar, PDG et fondateur de l'Open Kernel Labs, qui développe une technologie de virtualisation pour les systèmes embarqués. La virtualisation permet d'économiser aussi sur le coût des puces intégrées au smartphone, puisqu'elle demande moins de RAM et de mémoire Flash, notamment. Jusqu'à présent, l'évolution des smartphones a été contrariée par une puissance de traitement limitée qui imposait aux appareils de ne faire tourner qu'un ensemble d'applications spécifiques. Mais, à mesure que les appareils mobiles gagneront en puissance de traitement, la virtualisation pourra également permettre aux utilisateurs de charger et d'exécuter plusieurs systèmes d'exploitation et de bénéficier de puissantes applications de cloud computing sur leurs appareils mobiles.
Les smartphones et les tablettes sont avant tout des outils de communication et de réception pour la vidéo, les données et les services Internet hébergés. "Il sera possible de créer un environnement virtualisé pour fournir un service cloud spécifique, ou pour échanger des données avec un PC," a déclaré Les Forth, ingénieur chez le fondeur Freescale. Par exemple, les utilisateurs seront en mesure d'établir une connexion à distance avec des ordinateurs à domicile pour exécuter des applications ou lire des fichiers multimédias en temps réel. "En utilisant un environnement distinct, la virtualisation pourrait également aider les utilisateurs à participer à des jeux multijoueurs en haute définition à travers le cloud," a-t-il ajouté. L'environnement virtualisé pourra permettre de surmonter le fait que la plupart des applications sont écrites dans un code qui n'est pas compatible avec les systèmes d'exploitation des appareils mobiles.
Un impact négatif sur les batteries
La virtualisation contribue déjà à fournir des communications en temps réel et des fonctions réseau essentielles au fonctionnement des smartphones. Elle facilite déjà l'usage de plusieurs systèmes d'exploitation et le cloisonnement des environnements pour exécuter des logiciels en toute sécurité. "On peut faire tourner un système d'exploitation en temps réel sur une partition virtuelle qui fournit une réponse en temps réel pour les tâches essentielles, et exécuter Android sur une autre partition," explique Linley Gwennap.
Mais faire tourner trop de systèmes et de logiciels puissants aurait pour effet de limiter la durée de vie de la batterie. L'hyperviseur de type 1, qui isole les systèmes d'exploitation et les fonctions exécutées par les différents logiciels, est un élément important de la virtualisation. "Les hyperviseurs logiciels utilisés sur de nombreux smartphones consommeraient trop de cycles processeurs : ils passeraient beaucoup de temps à balayer le code et à gérer les protocoles de virtualisation, avec un impact sévère sur la durée de vie de la batterie," explique encore Linley Gwennap. "D'ici à ce que l'on trouve des moyens pour préserver l'autonomie des batteries, les fabricants d'appareils mobiles peuvent d'ores et déjà envisager de charger les OS et les logiciels sur plusieurs coeurs," a-t-il suggéré. Les Forth de Freescale confirme que l'intégration de deux systèmes d'exploitation sur des noyaux distincts pourrait minimiser l'effet sur la durée de vie de la batterie. "Actuellement, la plupart des smartphones et des tablettes tactiles sont équipés de processeurs Arm à coeur unique. Il faudrait limiter le système d'exploitation au strict minimum pour le faire tourner aux côtés d'un gros système comme Android, sans affecter la vie de la batterie. Dans un sens, on revient au problème classique que posent les grosses machines, sauf qu'il est maintenant déplacé au niveau des appareils de petite taille", poursuit l'ingénieur.
Pas avant 3 à 5 ans
Le hardware est déjà en cours d'amélioration pour rendre possible l'arrivée de ces technologies de virtualisation dans les appareils basse énergie. Les processeurs mobiles sont par exemple conçus avec des extensions permettant la mise en oeuvre de la virtualisation, notamment pour aider à réduire le nombre de cycles CPU. ARM a annoncé début septembre une puce Cortex-A15 MPCore capable d'exécuter plusieurs systèmes d'exploitation virtualisés.
Mais Steve Subar d'OKL fait remarquer que certains smartphones exécutaient déjà plusieurs OS sur des noyaux distincts, ce qui augmente effectivement le coût des systèmes et consomme de la batterie. Mais d'un autre côté, la virtualisation permet de réduire les matériels redondants pour réduire les coûts. "En outre, avec les processeurs multicores pour mobiles, la virtualisation supporte la gestion du chargement et permet la mise en veille des processeurs, ce qui pourrait contribuer à réduire la consommation d'énergie," a déclaré Steve Subar. Regardant vers l'avenir, les observateurs pensent que la technologie de virtualisation pourrait changer, dans les trois à cinq ans, la façon dont on utilise les appareils mobiles. "Nous allons finir par tenir dans nos mains des ordinateurs de poche avec les capacités des PC actuels," conclut Les Forth.
Démonstration de la solution de virtualisation de VMware pour smartphones lors du salon WMworld 2009.
Fedora 14 teste la virtualisation de bureau
Plus précisément, cette mise à jour sera la première à intégrer la totalité des Spice (Simple Protocol for Independent Computing Environments), autrement dit les infrastructures de bureau virtuel VDI (Virtual Desktop Infrastructure) de Red Hat. Ainsi, cette version bêta de Fedora permettra d'héberger des bureaux virtuels et de les rendre accessibles via le réseau. "À long terme, Spice permettra à Fedora de fournir une meilleure expérience utilisateur en matière de virtualisation de bureau. Dans le court terme, Fedora s'enrichit d'une intéressante technologie Open Source que de nombreuses personnes ont envie d'essayer," peut-on lire dans la documentation de Fedora.
En plus de Spice, Fedora 14 expérimente plusieurs autres technologies. Elle comprend par exemple le framework Meego qui permettra aux utilisateurs de tester l'interface Meego présente sur certaines tablettes tactiles. Elle inclut également une version de démonstration du logiciel Sugar CRM, ainsi qu'un ensemble d'outils de développement Sugar. Le logiciel fournit également des briques pour l'exécution du langage de programmation objet D, et une version bêta de Perl 6, surnommée Rakudo Star.
Fedora 14 sera également compatible avec le logiciel de gestion serveur à distance IPMI (Intelligent Platform Management Interface) d'Intel. Il comprend aussi la prochaine génération du gestionnaire de session Linux systemd, qui devrait être intégré par défaut dans la version 15 de Fedora. Le logiciel offrira enfin la version 4.5 de KDE et pourra exécuter le noyau Linux 2.6.35.
Une base de tests pour la distribution entreprise de Red Hat
C'est en 2003 que Red Hat a initié le programme Fedora, en fait une version Open Source de son OS RHEL, destinée à être utilisée pour tester de nouvelles fonctionnalités. Jusqu'à présent, selon Red Hat, plus de 20 000 personnes ont contribué au projet. Des portions de Fedora sont ensuite incorporées dans RHEL, ainsi que dans la distribution Linux d'Oracle, qui emprunte beaucoup à RHEL.
Comme avec n'importe quel logiciel en version bêta, Fedora souffrira probablement encore de quelques bugs, de sorte qu'il ne devrait pas être utilisé en production, au moins avant la version finale. Les développeurs espèrent que les utilisateurs feront remonter les bogues afin qu'ils puissent être corrigés.
La version finale de Fedora 14 devrait être livrée en novembre, juste avant un certain nombre de mises à jour de distributions Linux, dont Ubuntu 10.10 de Canonical, RHEL 6 et Debian 6, prévues pour la fin de l'année.
(...)(29/09/2010 11:26:19)Dell étoffe ses solutions intégrées pour les datacenters virtualisés
Le constructeur informatique souhaite étendre son rôle au sein des datacenters et se détacher définitivement de l'image de fournisseurs de matériels à bas coût, en proposant un ensemble de produits pour la gestion des infrastructures virtuelles. Grâce à des acquisitions, des partenariats et ses propres développements, Dell a assemblé un ensemble de logiciels appelé Virtual Integrated System), qui facilitera pour les entreprises le déploiement et la supervision des serveurs, du réseau et du stockage dans un environnement virtualisé.
Cette annonce va permettre à Dell de concurrencer des fournisseurs plus expérimentés en la matière sur des solutions plus complexes à mettre en oeuvre. VIS réduira aussi la dépendance de Dell au hardware qui apporte moins de valeur ajoutée que les services et les logiciels. La solution proposée entre directement en concurrence avec l'offre UCS de Cisco et Blade System Matrix d'HP. VIS aidera, selon le texan, les entreprises à virtualiser leurs centres de données pour créer un pool de ressources de calcul, dans lequel la charge de travail peut être modulée pour accompagner les pics de demande. Cette solution s'installe au-dessus des plates-formes de virtualisation de VMware, Citrix et Microsoft, et gère de manière plus cohérente leurs serveurs, réseau et de stockage.
Un millefeuille de logiciels
Au coeur de VIS réside Advanced Infrastructure Manager (AIM), basé sur la technologie Scalent (société acquise par Dell). AIM peut fournir une application sur un serveur - virtuel ou physique - pour répondre à une forte demande immédiate. Le logiciel affecte aussi des ressources de réseau et de stockage nécessaires automatiquement. « Un facteur de différenciation est que notre solution s'adapte à nos produits, mais également à ceux d'autres fournisseurs » souligne Eric Endebrock, responsable marketing Entreprise chez Dell. Elle peut ainsi s'interfacer avec des serveurs HP et IBM, mais aussi avec les équipements réseau de Cisco, Juniper et Brocade. Pour le stockage, elle fonctionne avec EqualLogic, mais Eric Endebrock pense que d'autres plateformes seront supportées dans le futur.
AIM a été présentée plus tôt cette année. Il s'agit donc d'une mise à jour, comprenant une interface graphique plus facile à utiliser et la prise en charge du 10 Gigabit Ethernet et du Fibre Channel over Ethernet. Un plug-in est aussi disponible pour le logiciel de gestion de VMware vCenter qui via son interface accède à AIM. VIS comprend également une composante innovante, le Self-Service Creator, un logiciel de Dynamic Ops que Dell revend sous sa propre marque. Il s'agit d'un portail qui autorise un développeur ou un responsable informatique à sélectionner et à lancer les ressources de calcul dont ils ont besoin. Il prévoit un mécanisme de rétrofacturation, ainsi qu'un contrôle de l'inactivité ou de la sous-utilisation des machines virtuelles. Le prix d'AIM et Self Service Creator est respectivement de 1 810 dollars et 1 495 dollars par socket.
Enfin, Dell lancera dans les prochains trimestres, VIS Director, a expliqué Eric Endebrock. Elle aussi, sera basée sur un partenaire technologique, et offrira des possibilités de suivi et d'analyse pour améliorer les performances.
Changer d'image
Mark Bowker, analyste senior chez Enterprise Strategy Group, estime que le marché des solutions similaires à VIS est encore émergent. Dell pourrait s'appuyer sur les services entreprises de Perot, pour l'aider à vendre ces produits, souligne le consultant. Il pourrait ainsi proposer une offre de bureau virtuel, en fournissant l'infrastructure back-end ainsi que les ordinateurs de bureau et le support. L'un des plus grands défis que Dell aura à surmonter est une perception selon laquelle il n'a pas le savoir-faire technologique pour gérer des environnements virtuels complexes. «Au coeur de cette histoire, Dell va tâtonner pour se forger une légitimité », a déclaré Frank Gillett, analyste de Forrester Research. Un pari qu'il commence à gagner. En effet, certains clients ont plus confiance en Dell qu'avant. Ainsi, Jim Journeay, DSI au Meridian Credit Union à St. Catherines, en Ontario, a déclaré que son entreprise a récemment changé ses serveurs IBM par des Dell. La première raison est une question de coût, mais il a aussi été impressionné par la compétence des équipes Dell Perot, « Dell a parcouru un long chemin au cours des deux dernières années. Il n'était pas perçu auparavant comme une plate-forme serveur solide », a déclaré Jim Journeay. S'il n'utilise pas aujourd'hui la solution VIS, préférant les outils de gestion VMware, il étudiera la question dans le futur.
Citrix renforce son équipe en France
Directeur Général de Citrix France depuis mars dernier, Eric Lecoq hérite d'une dynamique enviable : l'éditeur a enregistré une croissance de son chiffre d'affaires de 35% au second trimestre 2010 et son objectif pour les trimestres à venir est de progresser systématiquement plus vite que le marché global de la virtualisation. De fait, Citrix doit embaucher, notamment dans l'Hexagone. L'équipe commerciale devra compter plus de 60 personnes d'ici la fin de l'année, contre 50 aujourd'hui. « Cela ne change rien à notre modèle de distribution, qui reste 100% indirect, affirme Eric Lecoq. L'objectif est plutôt d'apporter de nouvelles ressources à nos 180 partenaires certifiés. »
De fait, Citrix ne souhaite pas recruter davantage de partenaires, mais renforcer ses liens avec ses relais existants. « En France, nous travaillons avec toutes les entreprises du CAC 40 et, au niveau mondial, 1 613 sociétés du Global 2000 sont clientes de Citrix, précise Eric Lecoq. Le premier enjeu est donc de renforcer notre présence dans les moyennes entreprises. »
Une direction renouvelée
Arrivé chez Citrix au printemps, Eric Lecoq a travaillé dans l'édition logicielle depuis 20 ans, notamment chez Oracle ou BMC Software. Pour autant, les trois directeurs commerciaux qu'il vient de nommer sont issus des rangs de Citrix. Franck Risbec, ancien de RISC Technologies et de HP, était auparavant responsable des grossistes chez Citrix France : il devient Directeur Channel. Patrick Rohrbasser, jusqu'à présent en charge des régions, est promu Directeur Grands Comptes (le CAC 40 et les grandes administrations). Enfin, Karim Djamaï est nommé Directeur Mid-Market : il a notamment été responsable des alliances et du secteur Ile-de-France.
« La dynamique de ce marché est forte et nous devons être en mesure de renforcer nos parts de marché. Cela passe par des recrutements en interne, par un plus grand support de nos partenaires et par de nouveaux accords technologiques, tel que celui que nous passons avec Cisco, dont l'offre sera « Citrix ready », conclut Eric Lecoq.
OpenWorld 2010 : Solaris 11 Express en éclaireur
Sur OpenWorld 2010, John Fowler, vice-président de Sun désormais responsable de l'activité systèmes d'Oracle, a présenté les grandes orientations de l'OS Solaris 11 attendu en 2011. La dernière mise à jour, Solaris 10 9/10, a été livrée il y a dix jours et d'ici la fin de l'année, l'éditeur doit mettre à disposition Solaris 11 Express. Cette version intermédiaire aura vocation à donner aux développeurs, partenaires et clients d'Oracle un avant-goût de la version 11 à venir. Assortie d'un programme de support Oracle (optionnel), elle donnera accès aux dernières fonctionnalités de l'OS. Les clients auront notamment le choix d'utiliser Solaris 11 Express sur les derniers modèles de serveurs de stockage Exadata X2-8, annoncés sur OpenWorld.
John Fowler assure que Solaris 11 sera non seulement plus rapide et plus simple à déployer, mais aussi plus facile à maintenir. L'objectif est de réduire sensiblement les interruptions d'activité, planifiées ou imprévues. Le dirigeant promet des outils packagés qui seront notamment utilisés pour limiter les problèmes liés aux correctifs et aux mises à jour. Le système pourra aussi recevoir par télémétrie des informations sur les problèmes déjà identifiés par le support d'Oracle ce qui permettra de s'en prémunir avant qu'ils ne se manifestent. « Un service proactif et préemptif », a souligné l'orateur.
Un projet énorme pour Oracle
Dans le domaine des performances et des capacités d'évolutivité, John Fowler a annoncé que l'OS pourrait gérer des milliers de threads, plusieurs téraoctets de mémoire principale et des centaines de Gbps, avec une gestion avancée de la consommation électrique. Solaris 11 sera aussi un OS entièrement virtualisé, gérant les technologies de virtualisation sur les serveurs, les systèmes de stockage et le réseau, sans que les applications doivent modifier les applications qu'elles utilisent. Dans le domaine de la sécurité, l'OS va tirer parti des fonctions de chiffrement sur disque apportées au système de gestion de fichiers ZFS.
Pour John Fowler, Solaris 11 est conçu pour les prochaines générations de matériels : « Les systèmes multitéraoctets sont vraiment au coin de la rue ». Le responsable de l'activité système a tenu à réaffirmer la forte implication d'Oracle sur l'OS hérité du rachat de Sun. « C'est un enjeu énorme qui devrait contenir 2 700 projets et plus de 400 inventions ». Il résulte, selon l'éditeur, de plus de 20 millions d'heures-homme de développement et de plus de 60 millions d'heures de tests.
On se souvient que le mois dernier, Oracle avait manifesté son intention de concentrer ses forces sur cette version commerciale du système d'exploitation, au détriment de la version Open Source, OpenSolaris, pour laquelle l'éditeur a indiqué qu'il ne livrerait plus de mises à jour. Une décision qui a entraîné quelques jours plus tard la dissolution de l'OpenSolaris Governing Board, conseil d'administration externe gérant les relations avec la communauté.
Avec le rachat de Suse, VMware pourrait mettre un terme à sa croisade anti-OS
VMware qui a bâti sa renommée en industrialisant la virtualisation des serveurs basés sur Unix et Windows expliquait jusqu'à présent que la virtualisation était là pour prendre en charge la gestion du matériel et des systèmes d'exploitation. Et pour accompagner les besoins de ses clients, l'éditeur de Palo Alto prépare également une offre de cloud computing visant à réduire l'apport de Windows sur les PC de bureau.
Mais avec le rachat de l'activité Suse Linux de Novell , VMware deviendrait à son tour un fournisseur de système d'exploitation - comme Oracle avec Solaris depuis le rachat de Sun - et serait donc bien obligé de reconnaître l'importance des dits OS. Les analystes estiment que la tentative de reprise de Suse Linux a du sens et aidera VMware rivaliser avec Microsoft, son principal rival, et Red Hat. Ces derniers expliquent que VMware ne peut pas offrir de plate-forme cloud computing complète parce qu'il lui manque certaines briques dont le système d'exploitation. Et si l'OS de Microsoft conserve son actuelle position dominante, VMware ne sera pas en mesure de rivaliser avec l'éditeur de Redmond sur le long terme, avance Chris Wolf analyste au Burton Group. « Microsoft a toujours été en mesure de suivre de près le lien entre les infrastructures, son système d'exploitation et les applications », explique Chris Wolf. «Avec le temps, il est clair que les logiciels de Microsoft fonctionneront de mieux en mieux sur Hyper-V » [ que sur VMware, NDLR].
De la nécessité d'un OS
Alors que Microsoft offre gratuitement Hyper-V 2, son hyperviseur de type 1 pour serveur, en tant que complément de Windows Server 2008 r2, VMware pourrait également fournir un système d'exploitation Linux comme un add-on de sa plate-forme de virtualisation. Une sorte de miroir à la stratégie de Microsoft. En fait, VMware le fait déjà à travers un accord OEM avec Novell pour la distribution et le support de Suse Linux. Prendre Suse Linux sous son aile - par le biais d'une acquisition - est «la meilleure chance [de VMware a] au cours des 15 prochaines années pour rester dans le coup», souligne Chris Wolf, qui a également écrit sur son blog que l'éditeur a besoin de son propre système d'exploitation. VMware continue de soutenir que le système d'exploitation perdra de sa pertinence dans le futur, mais l'achat de Suse Linux serait bien l'aveu que « cette pertinence est encore d'actualité, conclut-il. Charles King, analyste chez Pund-IT, livre des remarques similaires dans une interview accordée vendredi dernier à nos confrères de ComputerWorld. L'analyste explique que le PDG de VMware, Paul Maritz, semble croire que « la fin du système d'exploitation est proche », mais un changement si majeur prendra des années voire des décennies, si cela arrive vraiment poursuit Charles King. "Il y a tout simplement beaucoup trop d'infrastructures et d'investissements réalisés pour que les entreprises abandonnent purement et simplement le coeur de leur architecture informatique utilisé depuis des décennies", explique Charles King.
Même si Paul Maritz est dans le vrai quand il prédit que les systèmes d'exploitation continueront à perdre de leur importance au cours des années à venir, il doit encore répondre aux besoins actuels des clients. Avec un système d'exploitation solide, VMware "serait en passe de posséder toutes les piles", poursuit l'analyste, qui croit que VMware devrait également acheter Novell Cloud Manager, qui prend en charge les hyperviseurs de plusieurs fournisseurs.
Quid des partenariats ?
Le dilemme qui pourrait être soulevé par un accord Novell/VMware pourrait être le sort réservé au partenariat de Microsoft avec Novell, qui garantit l'interopérabilité entre Windows et Suse Linux. "Si quelqu'un sera très contrarié si Suse va chez VMware, Microsoft figure tout en haut de la liste, " pointe l'analyste de Pund-IT. Le deuxième sur cette liste pourrait être Red Hat, qui ne serait plus en mesure de faire valoir que VMware a une offre bancale faute de système d'exploitation. Ainsi doté, VMware serait également capable de prendre plus de parts du marché Linux à Red Hat que Novell. Au dernier trimestre, le chiffre d'affaires de VMware était ainsi trois fois supérieur à celui de Novell.
Bien que l'acquisition d'un système d'exploitation robuste permettra à VMware de consolider sa pile solutions, certains problèmes demeurent. Windows est toujours beaucoup plus utilisé que la distribution Linux de Novell et le framework .NET plus répandu que la plate-forme de développement Java SpringSource de VMware. Avec cette dernière acquisition (voir lien), l'éditeur de Palo Alto entendait bien rivaliser avec la solution de Microsoft, mais la solution .NET est devenue énorme » souligne Chris Wolf. « Un gigantesque écosystème dédié au développement s'est développé autour de lui. »
Les solutions de virtualisation de Liquidware Labs arrivent en France
La virtualisation du poste de travail est au coeur des débats, notamment technologique avec les annonces récentes de Citrix (via XenClient, son hyperviseur de type bare-metal) ou VMware avec sa solution View. Pour autant, le marché du VDI reste balbutiant, en France notamment. C'est pour changer cet état de fait, que Liquidware Labs s'est alliée avec le grossiste Français à valeur ajoutée Amosdec pour déployer des solutions de VDI. La plupart des fondateurs de la société américaine ont eu des activités antécédentes, acquises par VMware, Vizioncore, Dunes Technologies. C'est dans cette dernière que travaillait, Sonja Pelichet, responsable de l'activité EMEA et Asie-Pacifique, qui est venue présenter les solutions de Liquidware Labs. Elles se composent de Stratusphere Fit qui réalise un inventaire physique et logiciel des postes de travail présents sur le réseau. A l'issue de cette opération, la solution est capable de déterminer quels postes sont ou non éligibles à la virtualisation et quels sont ceux sur lesquels l'étude doit être renforcée pour répondre.
Après le processus de VDI proprement dit, la seconde brique, Stratusphere (UX) mesure les performances des postes de travail au niveau physique et virtuel (temps de réponse, utilisation de la mémoire, ressources réseaux consommées...). Et si l'entreprise choisit de franchir le pas, elle peut encore s'en remettre à ProfileUnity pour assurer la migration des profils utilisateurs des postes de travail physiques vers des machines virtuelles. Durant cette phase, la solution présente en outre l'avantage d'être capable de faire migrer, par exemple, une machine physique sous Windows 2000 vers un poste de travail virtuel en Windows 7. Sonja Pelichet explique « nous sommes agnostiques en matière de virtualisation en travaillant aussi bien sur VMware, Citrix et Microsoft ».
Un marché en devenir
« Malgré les prévisions qui ont été annoncées, il s'agit encore d'un secteur en devenir si l'on s'appuie sur le nombre de licences vendues » explique Serge Aziza, le directeur général d'Amosdec. Sonja Pelichet constate elle « que de plus en plus de DSI de grandes sociétés s'interrogent sur le déploiement de VDI au sein de leur structure ». Si Liquidware Labs investit fortement dans la recherche et développement, la responsable de l'activité en Europe, indique que les roadmaps concerne aussi bien les prochaines générations de dekstop, comme les tablettes par exemple ou les smartphones, mais elle pense aussi « à la prochaine génération de datacenter » sans apporter plus de précision.
En matière de tarif, la solution sera commercialisée par Amosdec auprès des revendeurs sous forme de packs comprenant notamment de la formation, 100 licences Stratusphere FIT (pendant 180 jours / client final), des outils marketing, et un droit d'utilisation pour les entreprises. Le tout pour un coût de 2 995 dollars. Ce qui laisse le temps aux clients d'Amosdec d'auditer le parc informatique des entreprises et de mener à bien les opérations de virtualisation proprement dites. En revanche, s'ils souhaitent utiliser sur le long terme la console d'administration qui leur permet de contrôler l'usage des ressources par les applications et de réagir en cas de problème, ils pourront acheter des licences perpétuelles de Stratusphere UX au tarif de 39 dollars par utilisateur (+20% par an pour le support et les mises à jour).
(...)(09/09/2010 17:42:36)Un cloud privé clef en main cobrandé Microsoft/HP
Pour son habituelle conférence de rentrée, Microsoft a présenté un petit bilan de l'année. Eric Boustouller, président de la filiale française, a fait parler les chiffres : 175 millions de Windows 7 ont ainsi été écoulés dans le monde et 9 millions de bêta d'Office 2010 téléchargés dont 700 000 en France. « Nous avons connu une forte croissance en 2009 et cette année s'annonce très bonne. Les investissements portent leurs fruits en France avec la création d'un centre de recherche commun avec l'Inria (50 chercheurs privés et publics), du programme BizSpark et les partenariats pour développer le marché du cloud».
Un an après leur annonce de coopération sur le cloud computing, Microsoft et HP ont profité de cet événement pour annoncer une offre de cloud privé reposant sur les solutions des deux entreprises. À savoir l'outil de management System Center, la plate-forme Windows Server 2008 R2/Hyper-V, la messagerie Exchange, la base de donnée SQL Server 2008 R2 et bien sûr Windows Azure pour Microsoft, et les ressources matérielles BladeSystem Matrix combinant serveurs, stockage et réseau pour HP. Cette solution intégrée installée en démonstration au Microsoft Technology Center à Issy-les-Moulineaux est une première mondiale. « Deux filiales françaises ont fait preuve d'innovations pour annoncer cet accord » souligne à cette occasion Yves de Talhouët, PDG de HP France. « Avec Microsoft, nous apportons une solution de bout en bout, le cloud se joue sur l'infrastructure, mais également sur l'applicatif. Et pour faciliter l'intégration de cette solution, les curseurs de réglages sont souples. » Pour accompagner le déploiement de cette solution chez les clients la division Enterprise de HP (ex EDS) et un premier partenaire Sogeti sont sur les rangs. Ce dernier va d'ailleurs bâtir sa propre offre de cloud privé, baptisée IC2 (Innovation Cloud Center), avec cette solution.
Un cloud privé en démo chez Microsoft
La plate-forme témoin de Microsoft et HP, installé au MTC, est déjà fonctionnelle et peut accueillir les clients. «Nous souhaitons que les entreprises et les administrations puissent venir expérimenter une solution cloud réellement et immédiatement opérationnelle » précise Eric Boustouller. 200 clients sont attendus dans les 12 prochains mois au MTC. Sur la question du prix de la solution, Marc Jalabert, directeur du marketing et des opérations et Jérôme Tredan, directeur de la division serveurs chez Microsoft France, nous ont simplement indiqué que les clients pouvaient attendre une réduction des coûts de 20 à 30% avec cette plate-forme cloud par rapport à une installation traditionnelle non consolidée. Cinq scénarios sont aujourd'hui proposés par les deux acteurs : mise en oeuvre d'un portail de service cloud, activation depuis une console des services virtualisés, modification et allocation dynamique des ressources, transition d'un environnement existant (physique) vers un mode cloud et engagement de résultats. Il est bien sûr possible de mettre en place une grille tarifaire pour refacturer les services. Philippe Roux, responsable marketing serveurs chez HP, précise encore que le transfert d'une application existante et son stockage associé vers le HP Matrix prend une dizaine de minutes. Il s'agit là d'une intégration dans un vrai cloud privé et pas seulement un encapsulage dans un cloud. Une fois l'application transférée, il est possible d'arrêter le serveur physique et de travailler avec l'application intégrée au cloud. Cette dernière bénéficie dès lors de tous les bénéfices du cloud, à savoir l'élasticité, la sécurité avec les patchs automatiques, l'accès à toutes les ressources et enfin la redondance.
Une plate-forme fermée ?
À l'heure où les offres cloud se structurent, Microsoft et HP arrivent avec une solution prête à l'emploi quand certains comme Oracle n'ont toujours pas dévoilé leur stratégie. À la question de savoir si les clients vont choisir de s'enfermer sur une plate-forme, Jérôme Tredan répond judicieusement que tous les composants de cette solution sont modifiables et peuvent sans problème accueillir des équipements hétérogènes même si ce n'est pas la vocation première de cette offre. Comme le souligne Yves de Talhouët, « cette solution intégrée a été conçue pour offrir une plate-forme sans couture comme un ballon qui se gonfle et se dégonfle en fonction des besoins des clients ». Ce cloud privé clef en main est également un premier pas vers un cloud public si les clients désirent mutualiser certains services avec une solution de type multi-tenant chez un partenaire précise de son côté Jérôme Tredan.
(...)| < Les 10 documents précédents | Les 10 documents suivants > |