Flux RSS
Virtualisation
557 documents trouvés, affichage des résultats 181 à 190.
| < Les 10 documents précédents | Les 10 documents suivants > |
(17/03/2010 16:25:56)
VMware simplifie les migrations applicatives vers Windows 7
« VMware ThinApp 4.5 a été conçu pour réduire le codage et les tests nécessaires pour faire évoluer les applications vers le nouveau système d'exploitation de Microsoft tout en minimisant les risques de plantage» souligne l'éditeur. Comme la plupart des acteurs de l'industrie, VMware s'attend à ce que Windows 7 accélère la virtualisation des applications et des ordinateurs de bureau. Mais migrer le stock d'applications pour qu'il soit utilisable avec cet OS n'est pas aussi simple, et les clients « demandent ce portage via la virtualisation» a déclaré Raj Mallempati, directeur du marketing produits desktop chez VMware. Tombé en 2008 dans l'escarcelle de VMware lors de l'acquisition de Thinstall, un fournisseur d'applications de virtualisation, ThinApp englobe les applications en paquets et intègre leurs paramètres dans « un fichier exécutable unique hébergé hors du système d'exploitation » confirme VMware. Le paquet qui abrite aussi bien les clés de registre, les bibliothèques de liens dynamiques ainsi que les frameworks, est accessible en mode virtualisé pour l'utilisateur. Ces applications peuvent être déployées sur le réseau ou depuis un lecteur USB, permettant de les utiliser à partir d'ordinateurs différents. « La technologie est souvent mise en oeuvre en conjonction avec le déploiement d'un serveur de virtualisation, mais ce n'est pas nécessaire » souligne Raj Mallempati. Les nouvelles fonctionnalités de ThinApp 4.5 comprennent un meilleur partage de la mémoire entre applications, une gestion plus fine de l'allocation mémoire par Windows et un usage optimisé de la bande passante. En outre, la protection des échanges entre registres « garantit l'intégrité du fichier et évite la corruption possible des données suite à un crash ou à une défaillance système » Les plateformes logicielles ThinApp inclus 50 licences utilisateur. Son prix démarre à 5000 dollars. Chaque licence utilisateur supplémentaire coûte 39 dollars. (...)
(17/03/2010 11:09:59)Les serveurs virtualisés ne sont pas encore assez sécurisés selon le Gartner
D'ici 2012, environ deux serveurs virtualisés sur trois seront moins sécurisés que les serveurs physiques qu'ils remplacent, estime le Gartner. Les analystes du cabinet d'études se veulent davantage optimistes à plus long terme, prévoyant que ce taux tombera à un serveur virtualisé sur trois d'ici à la fin 2015. Ceci dit, les analystes pointent du doigt le fait que beaucoup de projets de déploiement de la virtualisation sont mis en oeuvre sans l'implication des équipes en charge de la sécurité informatique lors de la définition de l'architecture initiale. La virtualisation n'est pas une technologie faillible par nature, explique Neil McDonald, le vice-président de Gartner. Mais la plupart des charges virtualisées (ou workloads, c'est à dire le couple constitué par un système d'exploitation et les applications qui s'exécutent dans cet environnement) sont déployées sans une réelle prise en compte des questions de sécurité. Cet état de fait résulte de l'immaturité des outils et des modes opératoires employés, ainsi que de la formation limitée des équipes des entreprises, des consultants et des revendeurs. Photo : Neil McDonald, vice-président de Gartner (D.R.) [[page]] Si Gartner tire la sonnette d'alarme, c'est parce qu'à la fin de l'année 2009, seules 18% des "workload" des centres informatiques qui pouvaient être virtualisées l'ont été. En 2012, cette proportion devrait atteindre 50%. Or, puisque de plus en plus de workloads sont virtualisées, et que des workloads de niveaux de fiabilité différents sont combinées, et que les workload deviennent de plus en plus mobiles, les problèmes de sécurité doivent être surveillés de bien plus près. Selon le cabinet d'études, les risques de sécurité majeurs liés à la virtualisation sont au nombre de six : - Les équipes dédiées à la sécurité informatique ne sont pas assez impliquées en amont des projets de virtualisation, - Une mise en péril de la couche de virtualisation peut aboutir à une mise en péril de toutes les "workload" hébergées, - Le manque de visibilité et de contrôle sur les réseaux virtuels internes créés pour permettre aux machines virtuelles de communiquer entre elles rend inopérant les mécanismes existants de mise en oeuvre des politiques de sécurité, - Des workloads offrant différents niveaux de confiance sont consolidées sur un seul serveur physique, - sans les contrôles adéquats sur les accès à l'hyperviseur, - Il existe une perte potentielle de séparation entre les tâches de contrôle liées à la sécurité et celles liées aux réseaux. (...)
(12/03/2010 16:44:27)La gestion des datacenters laisse encore à désirer selon IDC
Si la virtualisation et l'automatisation ont été à l'origine de gains en efficacité considérables dans les centres de calcul, ils ont aussi engendrés de nouveaux problèmes. Dans le rapport de recherche publié par IDC et intitulé «Améliorer la gestion des datacenters : une étude européenne 2010», on trouve un certain nombre de situations à l'origine de ces augmentations des dépenses. Il apparaît notamment qu'environ 25 % des organismes gèrent encore leurs serveurs et leurs fonctions de stockage manuellement, ce qui fait grimper les coûts, comparativement à ceux qui utilisent certains outils. On trouve aussi que seuls 14 % de ces organismes ont établi un système de gestion totalement intégré. Et pour seulement 30 % des entreprises, les coûts d'exploitation des centres de données sont une priorité, 25 % étant spécifiquement concernées par le coût des licences logicielles. Dans son rapport, IDC fait aussi remarquer que les utilisateurs finaux ont des approches différentes de la gestion des datacenters. Quelque 58 % cherchent des solutions modulaires et 42 % préfèrent une approche intégrée. Les fournisseurs doivent donc vendre des packages pour varier leur approche et répondre aux différents besoins, indique l'étude. La virtualisation a également changé la manière dont sont gérés ces centres. L'étude montre ainsi que l'intégration serveurs, le stockage et la gestion des réseaux, cités par 31 % des organismes interrogés, sont au coeur des préoccupations, même si le tableau est plus complexe. Par exemple, les datacenters de grande taille sont surtout concernés par l'unification de leur gestion physique et virtuelle alors que les sites plus petits découvrent que l'intégration de différentes technologies de virtualisation rapportée à une stratégie de gestion unique peut être essentielle. Pour Giorgio Nebuloni, chercheur en Systèmes et Infrastructure pour IDC, «les DSI sont aux prises avec les conséquences de la virtualisation. Si les avantages sont évidents, l'impact sur la gestion se révèle comme un défi, et de nouveaux modèles de gestion seront nécessaires pour veiller à ce que cette virtualisation continue à avoir un effet positif sur la manière dont les centres sont administrés. » Crédits photo : datacenter de Sun à Broomfield [[page]] Selon IDC, le marché des produits de gestion par virtualisation est «grand ouvert.» 52 % des entreprises s'en remettent à leur fournisseur pour la virtualisation, 32 % utilisent les systèmes de leur fournisseur pour gérer leur environnement virtuel, et 16 % piochent dans l'offre de Suites de gestion. L'automatisation des centres de données augmente de manière importante. 69% de ceux qui y ont recours déclarent qu'il est nécessaire d'améliorer son adéquation avec les objectifs de l'entreprise. L'automatisation est principalement conditionnée par les coûts liés à l'amélioration de la sécurité pour réduire les erreurs, second facteur le plus souvent impliqué dans l'automatisation. Commentant ces résultats, Nathaniel Martinez, directeur programme Systèmes et Infrastructures chez IDC a déclaré : «Les gestionnaires de datacenters sont beaucoup plus soucieux de trouver des fournisseurs qui peuvent répondre à leurs problèmes de sécurité et de capacité plutôt que de s'assurer que leurs centres sont adaptés aux besoins de leur entreprise. » «IDC estime que les responsables technologiques doivent à la fois réduire leurs coûts d'exploitation et dresser un plan sévère sur la manière dont les investissements réalisés dans leur centre de données peuvent contribuer à la réussite commerciale de l'entreprise. » Jon Gasparini, consultant chez Morse souligne enfin qu'«entreprendre un vaste programme d'automatisation dans l'entreprise peut être intimidant et peut prendre beaucoup de temps. Les entreprises doivent également prendre conscience que ce n'est pas du tout ou rien. Il est possible et souvent préférable de procéder par étape. Parmi les tâches de gestion à automatiser en premier, les entreprises devraient choisir celles qui consomment le plus de temps. Si elles font cela, en quelques mois elles pourront bénéficier d'un retour sur investissement. » (...)
(11/03/2010 14:58:22)XenApp6 de Citrix étoffe son offre vers Apple
XenApp donne aux utilisateurs un accès à des programmes fonctionnant sur un serveur et transmet les applications vers le client sur plusieurs types de terminaux. Cette solution peut également être intégrée au sein de la plateforme de virtualisation de l'unité centrale, XenDekstop. « Les ordinateurs Mac et les smartphones équipés de l'OS Android ont été ajoutés à la liste des équipements compatibles avec le client Receiver de Citrix », souligne Magnus Toft, responsable produit et marketing de Citrix Nordic. Ce client a été lancé en mai 2009 et fait appel à plusieurs modules additionnels, concernant l'utilisation des applications en mode connecté ou déconnecté, la gestion des mots de passe et l'accélération du WAN. Récemment, Citrix a offert son client ICA (Independent Computing Architecture), protocole pour déployer les applications installées sur les serveurs, aux ordinateurs d'Apple. Ces derniers peuvent aussi utiliser Citrix Dazzle, un service de carrousel d'applications d'entreprise, contrôlé par le département IT de la société. « l'objectif est de donner aux entreprises les outils de gestion pour assurer la compatibilité des applications Windows aux utilisateurs de Mac » précise Magnus Toft. Une pleine compatibilité Windows Server Sur les autres fonctionnalités, la version 6 de XenApp intègre une nouvelle console de gestion Appcenter, qui transfère le management des applications depuis un point centralisé en utilisant un outil unique. Auparavant, les services informatiques étaient obligés de gérer plusieurs consoles pour maintenir leur environnement XenApp, incluant les interfaces Web et l'administration des licences. En supportant pleinement Windows Server 2008 R2 de Microsoft, l'installation initiale de la solution de Citrix et l'administration des profils en sont simplifiées. Les performances ont été améliorées avec la capacité de gestion de 10 000 utilisateurs simultanés au sein d'un seul datacenter. XenApp6 sera disponible en téléchargement le 24 mars prochain et les licences coûteront 350 dollars par utilisateurs (...)
(09/03/2010 17:26:49)EMC améliore l'intégration de ses Celerra dans VMware
L'arrivé de ces extensions Celerra pour les environnements VMware ajoute plusieurs nouvelles fonctionnalités au stockage virtuel de la compagnie, notamment l'intégration de certaines tâches comme la restauration automatique depuis l'outil vCenter Recovery Manager. Quand une grappe de disques devient indisponible, l'activité bascule automatiquement sur un autre groupe Celerra - soit sur le même site, soit dans un centre de données redondant. EMC avait déjà proposé ces mises à niveau pour ses solutions SAN Fibre Channel et iSCSI, mais il offre désormais ces mêmes fonctionnalités pour les environnements NFS (Network File System). Réduire sa facture de stockage avec la déduplication Brad Bunce, directeur du marketing chez EMC, a déclaré que ces mises à jour apportent également la fonction de déduplication des données sur les baies de stockage virtuel, ce qui peut réduire de 50% la quantité des données conservée sur des unités Celerra. NetApp propose d'ailleurs le même service sur ses baies et ses contrôleurs. "Quand vous déployez VMware sur une baie Celerra, un administrateur peut sélectionner les machines qui doivent être configurées en mode compressé et celles qui fonctionnent full-sized", explique Brad Bunce. "La flexibilité est plus grande quand l'administrateur peut sélectionner précisément les unités qui doivent être décompressées. Ce plug-in VMware pour Celerra autorise également le Thin Provisioning - la possibilité d'ajouter de la capacité de stockage à la demande - ainsi que le clonage de données ou encore le Snap Shot avec des volumes virtuels hébergés sur des baies Celerra, précise Brad Bunce. «Les utilisateurs aiment cloner des machines virtuelles pour des essais. Ainsi, lorsque vous souhaitez déployer un millier de nouvelles machines virtuelles, grâce au clonage ..., vous pouvez gagner plusieurs heures.» Ces plug-ins automatisent également la restauration des environnements NFS depuis le logiciel vCenter Site Recovery Manager de VMware. Les plug-ins Celerra d'EMC pour les environnements VMware sont disponibles en téléchargement pour tous les clients Celerra qui possèdent des contrats de maintenance. Toutes ces améliorations sont disponibles auprès d'EMC, de Dell et des partenaires autorisés. (...)
(02/03/2010 14:40:20)Les applicatifs métier d'Apave passeront par la virtualisation
Apave Nord Ouest souhaitait rendre accessible aisément ses applicatifs métier autour de la gestion de la relation client dans le cadre du projet « accueil clients ». Le cabinet spécialisé dans la maîtrise des risques techniques et environnementaux a choisi de virtualiser ses applications afin de les rendre accessibles à partir de n'importe quel PC pouvant se connecter au serveur central. Sur un serveur Dell, Apave a installé la solution de virtualisation d'applications de Systancia, AppliDis. Outre le coût non précisé, Apave a fait ce choix pour favoriser une relation de proximité avec un éditeur français. (...)
(25/02/2010 18:00:29)Cisco investit dans une start-up de sécurité appliquée à la virtualisation
La virtualisation, qui consiste à gérer plusieurs systèmes d'exploitation simultanément sur une même machine, est un procédé en pleine expansion dans le domaine des entreprises et les compétences en la matière sont recherchées. Ainsi, la société HyTrust, spécialisée dans la création des équipements et des logiciels dédiés à la virtualisation, attire de plus en plus les regards. Cumulant un capital de 5,5 millions de dollars après la sortie de ses premiers produits, en avril dernier, la start-up américaine a été honorée du prix « Best of Show » au salon de la virtualisation VMworld 2009. Elle y a également été inscrite au top 10 des start-up « à surveiller de près » pour 2010. L'apport de 10,5 millions de dollars de la part de d'investisseurs tel que Cisco (alliée ici à d'autres firmes informatiques) arrive comme une preuve de confiance supplémentaire pour la société. Parier sur l'avenir Si HyTrust se démarque, c'est parce qu'elle privilégie la sécurité entre utilisateurs de machine virtuelles. Les analystes perçoivent en effet la technologie HyTrust comme la solution au nombreux problèmes d'authentification des plateformes communes Vmware. Dans les faits, la virtualisation se symbolise par une plateforme commune entre tous les systèmes d'exploitation (OS), il est donc essentiel qu'un administrateur ait autorité sur les différentes options de contrôle de la machine virtuelle, afin de ne pas risquer de conflits entre les administrateurs de chaque OS. La jeune pousse a enfin indiqué que les fonds récoltés serviront au développement et à la branche marketing de la société. Cisco, NetApp et VMware travailleraient actuellement sur un projet permettant d'aller encore plus loin dans la virtualisation en isolant, non plus des systèmes d'exploitations, mais plusieurs applications partageant les mêmes ressources physiques. (...)
(25/02/2010 16:10:41)CA affine sa stratégie cloud en rachetant 3Tera
A ceux qui doutent des projets de CA dans l'environnement « nuage informatique », l'éditeur américain vient d'ajouter une nouvelle brique à sa stratégie cloud. L'acquisition de 3Tera apporte la solution AppLogic assurant la migration en douceur du cloud privé à la version publique. Cette opération succède aux rachats de Cassatt l'été dernier et Oblicore en début d'année. Elle sera effective d'ici quelques semaines. Pour Jay Fry, Vice-Président de la branche stratégie de CA , « le plus intéressant avec 3Tera est d'apporter à nos clients la possibilité de prendre leurs applications existantes et de les porter ensuite sur un cloud privé ou public, via une interface élégante (sic) ». Pour James Staten, analyste principal de Forrester Research « avec les solutions de 3Tera, l'éditeur ne devrait pas uniquement s'adresser aux fournisseurs de contenus, mais également à d'autres clients entreprises qui souhaitent convertir leur infrastructure interne virtuelle dans un environnement cloud » et d'ajouter « que cette orientation amènera l'éditeur américain à travailler sur d'autres solutions concurrentes de celles de VMware par exemple ». Les analystes rappellent également que les offres de 3Tera sont limitées à la plateforme Xen, utilisée par Amazon. Mais les responsables de CA indiquent que la compatibilité avec les solutions VMware et Hyper-V de Microsoft est à l'étude et devrait intervenir très rapidement. (...)
(25/02/2010 15:15:03)Citrix et VMware montent dans l'asset management IT
Citrix a annoncé l'acquisition de la société Paglo, spécialisée dans les solutions de gestion et de configuration d'actifs IT. L'acheteur devrait intégrer ces services au sein de son offre en ligne de contrôle à distance et de gestion des équipements IT, GoTOmanage. Ce dernier est le complément idéal de GoToAssist, service qui donne aux administrateurs le pouvoir de prendre la main sur les ordinateurs en cas de difficultés. Le montant de la transaction n'a pas été dévoilé. De son côté, VMWare s'est portée, selon le blog du groupe, acquéreur de trois logiciels (Virtual Profiles, Pinpoint et Discover), ainsi que des équipes R&D de la société RTO Software. L'intégration des différentes applications au sein de la solution VMware View apporte aux administrateurs une meilleure gestion des profils utilisateurs au travers des machines virtuelles. Cette vue globale apportée par le logiciel Virtual Profiles est selon VMware « un élément critique de la virtualisation, pour bien comprendre son environnement, le répliquer, le synchroniser, etc. » Les logiciels PinPoint and Discover supervisent eux les performances applicatives en traçant le fonctionnement respectif des logiciels et des équipements. L'intégration des différents logiciels RTO sera effective d'ici mi-2010. (...)
(04/02/2010 18:06:30)Combien de machines virtuelles sur un serveur, les avis d'experts ne concordent pas
Exécuter un ensemble de serveurs virtuels - et les applications associées - sur un serveur physique animé par un seul système d'exploitation (VDC-OS ou autre) semble assez facile au premier abord. Il est toutefois nécessaire de s'assurer que le matériel peut supporter cette charge supplémentaire, ce qui peut devenir un véritable casse-tête en raison de la variété presque infinie de logiciels qui peuvent s'exécuter dans un environnement virtuel. Chaque demande entraîne un ensemble de requêtes légèrement différentes sur le matériel et le système d'exploitation hôte, explique Chris Wolf, analyste chez Burton Group. La consolidation de serveurs physiques en machines virtuelles devrait permettre de réaliser de substantielles économies, mais il est fortement déconseillé de lésiner sur la partie matérielle pour éviter de tirer vers le bas les performances des applications et même, au final, d'aggraver les risques de non-disponibilité pour les utilisateurs finaux, indique Ian Scanlon, directeur des opérations pour ComputaCenter, un centre de données et de services informatiques basé à Londres, mais couvrant la majeure partie de l'Europe. «Si vous mettez cinq machines virtuelles sur un serveur, vous avez au final six systèmes d'exploitation en fonction et toutes les applications associées. Et vous devez garder la main pour gérer au mieux les niveaux de services pour garantir les meilleures performances aux applications les plus importantes", précise Ian Scanlon. "Nous avons fini par installer beaucoup plus de mémoire vive que ce qui avait été défini lors de nos tests de qualifications ». Obtenir des estimations précises et détaillées sur la façon dont un serveur va fonctionner comme un hôte VM est également compliqué par les capacités inégales des jeux de composants des cartes mères chipsets qui supportent les charges de travail virtuelles et les hyperviseurs, indique Gordon Haff, analyste en informatique de haute performance chez Illuminata. Les machines virtuelles exploitent beaucoup plus intensivement qu'un serveur physique la mémoire cache des processeurs et les puces ne réagissent pas toutes de la même façon aux requêtes des applications et des hyperviseurs, rappelle-t-il. Intel et AMD ont conçu des processeurs adaptés aux besoins de la virtualisation et de la migration des serveurs virtuels et leurs prochaines générations de puces - Nehalem-EX avec huit coeurs chez le premier et Magny-Cours avec 12 coeurs chez le second - feront encore mieux. Un serveur donné peut ainsi avoir aujourd'hui entre deux et huit processeurs, chacun ayant entre deux et huit coeurs de traitement. Dans quelle mesure la configuration d'un serveur répondra à la charge idiosyncrasique d'un logiciel est une variable presque impossible à prédire sans une étude précise et minutieuse, commente Andi Mann, analyste chez Enterprise Management Associates (EMA). [[page]] Même en demandant des informations techniques à un commercial avant-vente ou directement aux constructeurs, vous n'obtiendrez pas de réponse précise sans une évaluation détaillée de la charge de travail que vous envisagez de mettre sur le serveur. Bien qu'il n'y ait pas vraiment de règles rapides au sujet de la question matérielle, une démarche peut vous aider à obtenir des réponses suffisamment proches pour déceler les points faibles d'une offre et savoir ainsi comment la renforcer, explique Massimo Re Ferre, architecte IT senior chez IBM. Premièrement, sur chaque coeur issu d'un nouveau processeur Intel ou AMD, vous pouvez associer trois à cinq machines virtuelles, dit-il. C'est une vision plus optimiste que celle de Ian Scanlon, qui estime qu'il est préférable de se limiter à cinq ou six machines virtuelles sur un serveur unique. Si les applications exigent des ressources intenses comme avec les bases de données ou les ERP, il même recommandé, selon lui, de se limiter à deux VM. Trop se concentrer sur la consolidation conduit inévitablement à tirer les performances vers le bas et entraine l'insatisfaction des utilisateurs. Deuxième règle de Massimo Re Ferre : pour chaque coeur sur un processeur récent, ajouter sans hésiter de deux à quatre Go de mémoire vive. Un point qui coïncide avec l'évaluation de Ian Scanlon : 48 Go de Ram recommandés sur chaque serveur lame. "Une fois la mémoire vive en place, nous n'avons pas connu de problèmes de performance à proprement parler », précise-t-il. Les autres points à suivre de près Premièrement: ne pas oublier la tuyauterie. Avec plusieurs serveurs en action, les exigences en terme d'entrées/sorties deviennent beaucoup plus importantes. Assurez-vous d'avoir suffisamment de liens entre les baies de stockage et le réseau pour supporter la charge, explique Gordon Haff, de la société de conseil Illuminata. Cisco répond d'ailleurs à ce problème avec ses serveurs maison ESX équipés d'une intergace 10 Gigabit Ethernet. Deuxièmement: construire une clôture. Les machines virtuelles (VM) sont devenues très faciles à lancer et difficiles à suivre ensuite avec la prolifération des serveurs. Un grand nombre de VM finissent par fonctionner dans leur coin sans être réellement utilisées. C'est un élément qui est devenu très courant avec la multiplication des machines virtuelles. Tuer tous les serveurs non utilisés et réallouer l'espace disque réservé a ainsi permis à ComputaCenter de récupérer de nombreuses ressources qui ont ensuite pu être utilisé pour d'autre tâche en attendant de nouveaux investissements, indique Ian Scanlon. Troisième: Utilisez les outils qui sont disponibles sur le marché pour obtenir une cartographie détaillée de votre installation, conseille Chris Wolf. VMware commercialise vCenter VMware CapacityIQ 1.0, et Microsoft propose ses outils d'évaluation et de planification pour Hyper-V pour guider les clients. Des solutions particulièrement intéressantes quand on dispose d'environnements qui incluent VMware et Hyper-V. De nombreux outils tiers ne couvrent pas les deux versions - HP dispose par exemple d'un outil de calibrage spécialement conçu pour VMware et d'un autre pour Hyper-V. Ceux qui sont plus ou moins affiliés à VMware ou Microsoft ne peuvent pas fournir une évaluation indépendante explique encore Andi Mann d'Enterprise Management Associates. Parmi les outils recommandés citons toutefois, PowerRecon de Novell, Data Center Intelligence de Cirba, Balance Point d'Akorri et Capacity Modeler de Vkernel. En fin de compte, il est possible de construire un profil détaillé pour bien déployer ses machines virtuelles. Mais vu la quantité de temps et d'argent nécessaire pour une évaluation professionnelle, il est quelquefois plus intéressant de rester sur des serveurs qui ne fonctionnent qu'à 70% de leurs capacités plutôt que de chercher à atteindre à tout prix les 95% de taux d'utilisation conclut Massimo Re Ferre. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |