Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1191 à 1200.

< Les 10 documents précédentsLes 10 documents suivants >


(19/03/2010 09:50:21)

Les défis sécuritaires du cloud

« Le défi va être permanent, mais sous tension, non seulement en terme d'innovations techniques, mais aussi en matière de communication», a déclaré le PDG de Microsoft Steve Ballmer lors d'une conférence à l'université de Washington qui s'est tenu ce mois-ci. «Certains pensent que le cloud est un coffre-fort bien sécurisé, mais d'autres estiment que ce n'est pas sûr et sécurisé, sans parler de ceux qui ne pensent pas grand-chose du tout. La question est de savoir si on peut donner aux gens des outils dont ils pourront avoir le contrôle, dont ils pourront se sentir responsable? Je crois que les utilisateurs seront en mesure d'apprécier la question de la sécurité cloud quand ils en verront les effets. Le problème actuel est que les utilisateurs ne savent pas vraiment ce qui se passe ... et il est primordial de réaliser des outils et des technologies qui en facilitent la gestion. » « L'idée de « partager » des informations transforme le problème de la sécurité cloud en défi » explique Eva Chen, PDG de Trend Micro, dans l'entretien qu'elle a accordé à Network World : «Traditionnellement, les entreprises étaient propriétaires de leurs infrastructures informatiques. Avec le cloud, elles partagent la puissance de calcul, le stockage. Elles veulent donc savoir avec qui elles partagent leurs données. Quand vous louez une chambre dans un hôtel, vous ne voulez pas que votre porte soit ouverte, vous voulez qu'elle soit fermée à clef. Pour le cloud, c'est pareil : une entreprise qui loue temporairement un espace a besoin de savoir qu'il y a des verrous. » Network World a également interrogé Art Coviello, président de la division RSA de EMC et vice-président exécutif chez EMC. " Sur la question de la sécurité du cloud, je pense honnêtement qu'elle réside au niveau du microprocesseur, car avoir confiance en ce socle matériel est essentiel. C'est même selon moi la condition sine qua non du processus, » a t-il déclaré. « L'autre grand enjeu, c'est la gestion. Afin de disposer de tous les contrôles, il faut unifier la politique de sécurité avec la politique commerciale de l'entreprise et coordonner les deux afin d'avoir un effet de levier. Les sociétés abonnées au service cloud doivent être en mesure de dicter et de déléguer cette politique aux prestataires, seuls à pouvoir appliquer les décisions. » [[page]] Education et interopérabilité Dave DeWalt, président et CEO de McAfee, a déclaré à Network World que l'éducation était pour lui le plus grand défi: «Beaucoup d'entreprises sont aujourd'hui inquiètes car depuis 20 ou 30 ans, elles avaient le contrôle totale sur leur activité. Mais dans l'approche cloud, elles doivent parfois faire appel à plusieurs fournisseurs pour gérer leurs applications et donnent à chaque prestataire un contrôle sur leurs données. En premier lieu, elles sont préoccupées par cette perte de contrôle sur leurs actifs sensibles. Et il n'existe aucun standard en matière de cloud aujourd'hui. Les applications à base de cloud en sont à leurs débuts. Des vulnérabilités existent et des erreurs sont commises. Le cloud a donc besoin d'évoluer. » Enrique Salem, Président et CEO de Symantec, a déclaré pour sa part que le cloud réclamait de nouvelles exigences en matière de sécurité. « Tout d'abord, du point de vue des infrastructures, la sécurité devra se rapprocher des applications et des données. Dans une architecture de services partagés, il ne suffit pas simplement de protéger le périmètre du cloud, le datacenter, les serveurs ou même les baies de stockage. Les sociétés doivent renforcer leur gouvernance des informations pour optimiser le contrôle de celles émanant de l'entreprise. Elles doivent définir des politiques et des procédures et se les appliquer. Il est clair que cela est plus facile à dire qu'à faire. Une autre condition essentielle est la nécessaire visibilité des outils de sécurité mis en oeuvre par les prestataires de cloud, pour être en adéquation avec le niveau formulé par les entreprises. Cette interopérabilité sera importante et permettra aux sociétés de tirer parti, ensemble, des différents modèles, et d'optimiser les avantages de chacun. » (...)

(18/03/2010 16:49:14)

Un cloud public pour le développement chez IBM

Pour les départements informatiques, développer et tester sur une plate-forme « élastique » dans une infrastructure de cloud constitue une bonne manière d'optimiser leurs développements. En outre, l'utilisation d'une plate-forme cloud peut les aider à travailler plus rapidement, car les ressources peuvent être fournies à la demande, sans les blocages inhérents à la réservation préalable de temps et d'espace sur les systèmes internes, expliquent les promoteurs de cette solution. Big Blue a aussi publié une liste de partenaires pour son cloud : RightScale et Kaavo, qui proposent des programmes de supervision des clouds; Navajo Systems spécialisé dans la sécurité; AppFirst qui apporte des logiciels d'optimisation de la performance ; enfin Aviarc, Corent et Wavemaker qui fournissent des outils de développement. Le cloud public dédié au développement d'IBM exploitera également la technologie de virtualisation de Red Hat et supporte les systèmes Red Hat Enterprise Linux, Novell SUSE Linux et Java. Cette plate-forme sera disponible au deuxième trimestre de l'année aux États-Unis et au Canada, et dans le reste du monde par la suite. Parmi les concurrents de cette infrastructure, citons Amazon Web Services et Rackspace, qui ont, tous deux, établi des partenariats similaires. IBM pourrait toutefois avoir un avantage concurrentiel sur ces fournisseurs, étant donné sa longue expérience dans les entreprises et l'utilisation répandue de ses outils de développement Rational. IBM a d'ailleurs récemment annoncé la disponibilité de sa plateforme Rational Software Delivery Services v1.0 pour le cloud computing. (...)

(18/03/2010 09:39:25)

John Chambers : Cisco n'a pas voulu concurrencer IBM et HP

Votre objectif de devenir la compagnie numéro un dans l'IT entraîne une présence sur des marchés très différents. Les gens vous connaissent comme société dans les réseaux, mais vous avez également une ambition qui va à l'encontre d'acteurs comme HP et IBM. Ce sont des choses très différentes non ? Nous sommes un des acteurs les plus importants aussi bien sur le plan de l'architecture réseau, que dans le domaine de la communication au sens large. Et sur ces points, nous travaillons concomitamment sur la technologie et le commercial. La position de leader a été acquise en enregistrant des très bons résultats sur des marchés en phase de croissance. Même les critiques les plus acerbes, peuvent le reconnaître. Il faut également constater que la première génération de nos concurrents comme SynOptics, Wellfleet, 3Com, Cabletron, n'existent plus et la même chose pourrait nous arriver si nous ne nous adaptons pas aux évolutions du marché. De plus, nous sommes des paranoïaques en imaginant que nous pourrions être à la traîne. Enfin, quand nous avons commencé dans le marché des fournisseurs de services, plusieurs personnes nous ont indiqué notre absence de compréhension des acteurs. La légitimité était du côté de nos concurrents, Nortel, Lucent, Alcatel, Siemens, Ericsson. Nous avons donc pensé comment devenir numéro un sur ce marché et maintenant, nous le sommes. Pour ce faire, la direction prise reposait sur l'architecture à la différence de nos concurrents. Lors du dernier Mobile World Congress à Barcelone, si vous posiez la question quel est votre partenaire le plus efficace en matière d'architecture et pour la distribution des services, nous sommes cités dans la majorité des cas. Une chose impensable il y a encore 5 ou 6 ans. Dans le domaine des datacenters, je n'ai pas voulu entrer en concurrence avec IBM et HP. J'aurais préféré établir un partenariat avec les deux. Mais nous avons décidé, il y a 5 ans maintenant, d'aller vers la virtualisation, et les partenariats envisagés, entraînaient un trop grand partage de notre technologie. Cela revêtait une importance stratégique pour nous, car la question n'est pas de transformer le marché. Je ne m'intéresse pas aux serveurs, je regarde la virtualisation, où vous devez savoir où sont les processeurs, où les informations sont stockées et où résident les applications. Le réseau devient une commodité. Nous avons donc suivi les attentes du marché en nous concentrant sur cette transition et non sur nos concurrents. [[page]] Quel est votre position sur le cloud et pourquoi certaines grandes compagnies n'y vont pas ? Il ne s'agit pas simplement de la question d'y aller. La problématique repose sur la virtualisation et sur le rôle que va jouer le réseau dans tout cela. Nous pensons que le réseau est une pièce centrale et non le datacenter ou le terminal de l'utilisateur final. Il existe plusieurs dispositifs pour recevoir tout type de contenu aussi bien à travers des réseaux sans fils ou filaires à la maison, sur un smartphone Apple, Microsoft ou IBM. De plus, le marché ne se fait plus sur la voix, ni sur la donnée, mais sur la vidéo. Maintenant, nous pouvons dire que c'est une grande période. Mais souvenez-vous, nous avions expliqué il y a quelque temps que la vision devait être globale, voix, vidéo et données. Cette décision a été prise il y a 15 ans et nous avons commencé à construire nos architectures dans cette optique. Comment voyez-vous le déploiement des offres de clouds publics et privés au sein des entreprises ? Peut-on les fédérer ? La perspective sur les clouds privés et publics au sein de l'entreprise doit aboutir in fine à un système de confédération, complétement transparent pour les utilisateurs finaux, les responsables informatiques et autres. Le réseau est au coeur de tout cela. C'est notre démarche quand nous développons des partenariats avec VMware ou EMC et encore plus récemment avec NetApp, en réfléchissant sur des standards ouverts sur ce type de sujet. Nos meilleurs partenaires dans le cloud seront les fournisseurs de services, car ils devront faire vivre leurs tuyaux et éviter que leur réseau ne soit qu'une commodité. La valeur reviendrait alors aux sociétés périphériques ou aux créateurs de contenus. Il me semble que nous avons une opportunité commune. [[page]] Quel sera le plus grand marché au sein des clouds ? Dans un premier temps le marché le plus important sera représenté par le cloud public. Sur le long terme, le privé et la combinaison de ce que l'on appelle la fédération des clouds. Nonobstant, nous développons nos propres clouds et nous nous interfacerons avec d'autres. Vos concurrents mettent en avant que vos solutions sont propriétaires, que répondez-vous ? Les premiers contrats contenaient beaucoup de technologies propriétaires. Nous sommes maintenant devenus une société avec des standards ouverts. Internet est ouvert à tous les terminaux et contenus. Quand nous avons intégré le marché de la téléprésence, nous disposions d'une forte part de marché sur le haut de gamme (64%). Nous avons proposé une norme ouverte et disponible pour l'ensemble des concurrents. A ce que je sache, nous n'avons pas de système d'exploitation propriétaire qui fonctionne sur nos produits. Internet doit être l'interface unique sur des différents terminaux. Cela nous permet d'aller plus vite sur le marché et de protèger nos clients qui ne seront pas bloqués par un OS, un terminal ou un datacenter. Quelle est votre réaction à la critique de l'existence d'une Cisco Tax ? Ce n'est pas très honnête de dire cela. Les clients n'ont pas de problème avec notre politique premium, car si vous ne faites pas ce type de produit, vous ne développez pas de nouveaux produits et ne protégez donc pas les investissements. Est-ce que je crois à la mise en place d'une consolidation industrielle rapide ? Absolument. Est-ce que je crois qu'une part de vos prises de décisions décisives est basée sur notre capacité à innover, à nous adapter au sein d'un marché en pleine évolution à travers des produits qui travaillent ensemble, dans une architecture ouverte ? Oui. Est-ce que les clients doivent payer un tarif premium pour cela ? Oui. Même si je soutiens qu'il ne s'agit pas d'une tarification premium. (...)

(17/03/2010 12:40:53)

Dell, Fujitsu, HP, IBM et SGI annoncent leurs serveurs sur base Intel Xeon 5600

Destinés au marché des serveurs lame et rack, les Xeon 5600 Westmere sont jusqu'à 60% plus rapide que leur prédécesseur, le Xeon 5500. C'est en tout cas ce que met en avant le fondeur. Pascal Lassaigne, directeur du marché entreprises chez Intel France, nous a également expliqué que ces puces offraient de meilleures performances tout en consommant moins, ce qui, selon certains analystes, devraient contribuer à réduire les factures d'électricité et les coûts d'installation. Rattraper le retard pris en 2009 "Ce n'est pas une révolution sur le marché des serveurs, c'est plutôt une évolution de la façon dont les principaux constructeurs de serveurs adressent le marché", a déclaré Dan Olds, analyste principal chez Gabriel Consulting Group. Vendre moins de serveurs, mais avec une meilleur efficience générale. Cet apport significatif en performances et les avantages en termes de consommation électrique pourraient contribuer à améliorer les ventes de serveurs, qui sont en baisse depuis début 2009, a souligné Dean McCarron, analyste chez Mercury Research. Le cycle de mise à niveau des serveurs a pris un train de retard en raison de la crise économique, mais il y a des signes d'une légère hausse des dépenses des entreprises, précise l'analyste. [[page]] Selon le cabinet d'étude Gartner, un million de serveurs qui auraient dû être remplacé en 2009 sont restés en activité. Les ventes de serveurs dans le monde ont totalisé 2,2 millions d'unités au quatrième trimestre 2009, soit plus de 4,5% par rapport au dernier trimestre 2008, selon IDC. Toutefois en valeur, le chiffre d'affaires a diminué de 3,2 % en raison de la baisse des prix, mais les recettes sur le segment des serveurs x86 - le type de machines présentées ce mardi - ont augmenté de 14,3% pour atteindre 7,6 milliards de dollars. Moins de serveurs au final dans les salles Selon Pascal Lassaigne, qui cite une étude IDC, près de 80% des serveurs pourraient être remplacés pour consolider et simplifier l'administration des parcs. « Ainsi selon nos estimations 15 serveurs Xeon monocoeur déployés en 2005 pourraient être troqués contre un seul Xeon 5600 avec un ROI inférieur à six mois et une réduction importante de la consommation énergétique même si une puce multicoeurs est plus gourmande qu'une monocoeur. » Un six coeurs Xeon 2,26GHz L5640 basse tension (60 watts) offre ainsi des performances comparables à un quatre coeurs Xeon 5570 plus âgés cadencés à 2,93 GHz et consommant 95 watts, selon Intel. Plus de machines virtuelles Les clients se tournent de plus en plus vers la virtualisation, et les améliorations matérielles dans les serveurs. Plus de coeurs, le multithreading et l'augmentation de la mémoire vive permettent d'installer plus de machines virtuelles sur les serveurs, explique Dean McCarron. Les utilisateurs seront ainsi en mesure d'empiler les charges de travail pour améliorer le taux d'utilisation des serveurs. Un phénomène qui devrait contribuer à renforcer la consolidation, en particulier dans les datacenters, où la virtualisation permet d'obtenir des taux d'utilisation particulièrement élevés confirme l'analyste. [[page]] Une fois l'embargo d'Intel levé, les principaux constructeurs de serveurs ont pu détailler les caractéristiques de leurs produits intégrant les puces Xeon 5600 du fondeur. « La consolidation de serveurs et la réduction de l'infrastructure ont un effet bénéfique sur les datacenters, en réduisant l'énergie et les besoins en refroidissement » nous a expliqué Krista Satterthwaite, directrice du marketing produit de HP. La société a en effet annoncé la commercialisation de ses serveurs ProLiant G6 sur base Xeon 5600. Une gamme qui comprend des modèles blade en rack et des tours. Dell, de son coté (voir illustration ci-dessous), renouvelle sa famille avec les serveurs lame PowerEdge (M710, M610), racks (R710, R610, R510, R410) et tours (T710, T610, T410). IBM étoffe son offre avec deux serveurs en rack (le M3 x3650 et le M3, x3550), et deux serveurs tours, (le M3 x3500 et le M3 x3400). Big Blue a également annoncé une solution de virtualisation "optimisée" avec le BladeCenter HS22V (sur base Xeon 5500), qui pourrait accueillir 30 à 50% de machines virtuelles supplémentaires sur un serveur lame. Fujitsu se distingue avec le Primergy CX1000, un serveur Xeon 5600 spécialement conçu pour répondre aux besoins des solutions de type IaaS (Infrastructure as a Service) proposées par les plates-formes cloud. Particulièrement compact, le CX1000 peut être livré dans une armoire totalisant 38 serveurs (90 000 $). Enfin SGI dévoile l'Origin 400 (voir photo ci-dessous), un serveur lame 6U (jusqu'à 72 coeurs Xeon 5600 avec un maximum de 576 Go de Ram) également conçu pour les environnements virtualisés. Dans un même châssis, l'Origin 400 intègre les lames serveur, la baie de stockage SAN et la connectique réseau. (...)

(17/03/2010 11:09:59)

Les serveurs virtualisés ne sont pas encore assez sécurisés selon le Gartner

D'ici 2012, environ deux serveurs virtualisés sur trois seront moins sécurisés que les serveurs physiques qu'ils remplacent, estime le Gartner. Les analystes du cabinet d'études se veulent davantage optimistes à plus long terme, prévoyant que ce taux tombera à un serveur virtualisé sur trois d'ici à la fin 2015. Ceci dit, les analystes pointent du doigt le fait que beaucoup de projets de déploiement de la virtualisation sont mis en oeuvre sans l'implication des équipes en charge de la sécurité informatique lors de la définition de l'architecture initiale. La virtualisation n'est pas une technologie faillible par nature, explique Neil McDonald, le vice-président de Gartner. Mais la plupart des charges virtualisées (ou workloads, c'est à dire le couple constitué par un système d'exploitation et les applications qui s'exécutent dans cet environnement) sont déployées sans une réelle prise en compte des questions de sécurité. Cet état de fait résulte de l'immaturité des outils et des modes opératoires employés, ainsi que de la formation limitée des équipes des entreprises, des consultants et des revendeurs. Photo : Neil McDonald, vice-président de Gartner (D.R.) [[page]] Si Gartner tire la sonnette d'alarme, c'est parce qu'à la fin de l'année 2009, seules 18% des "workload" des centres informatiques qui pouvaient être virtualisées l'ont été. En 2012, cette proportion devrait atteindre 50%. Or, puisque de plus en plus de workloads sont virtualisées, et que des workloads de niveaux de fiabilité différents sont combinées, et que les workload deviennent de plus en plus mobiles, les problèmes de sécurité doivent être surveillés de bien plus près. Selon le cabinet d'études, les risques de sécurité majeurs liés à la virtualisation sont au nombre de six : - Les équipes dédiées à la sécurité informatique ne sont pas assez impliquées en amont des projets de virtualisation, - Une mise en péril de la couche de virtualisation peut aboutir à une mise en péril de toutes les "workload" hébergées, - Le manque de visibilité et de contrôle sur les réseaux virtuels internes créés pour permettre aux machines virtuelles de communiquer entre elles rend inopérant les mécanismes existants de mise en oeuvre des politiques de sécurité, - Des workloads offrant différents niveaux de confiance sont consolidées sur un seul serveur physique, - sans les contrôles adéquats sur les accès à l'hyperviseur, - Il existe une perte potentielle de séparation entre les tâches de contrôle liées à la sécurité et celles liées aux réseaux. (...)

(16/03/2010 17:05:32)

La Poste repense son informatique en mode green

Dans le cadre des rencontres carbones organisées en association avec Deloitte et BDNA, La Poste a présenté les résultats de l'étude diagnostique menée par ces deux sociétés d'aide aux entreprises concernant le bilan carbone de son parc informatique. Affichant en 2009 un total de 68 000 tonnes d'émission de CO2 dues à ses équipements informatiques et technologiques dont 42 000 tonnes liées au simple parc d'ordinateurs, La Poste s'est lancée, depuis le mois de janvier dernier, dans l'application d'un plan Green IT élaboré par Deloitte et BDNA. Il devrait permettre au groupe de réduire son impact écologique d'environ 30% dans le domaine des IT. Un gain net de 10 millions d'euros par an est attendu. Avec sa moyenne de 5,7% de ses émissions totales de CO2 dues aux équipements IT, le groupe dépasse de 3,7% la moyenne générale. Il confirme ainsi son caractère « IT intensif », en particulier lié à ses activités bancaires, que lui vaut la possession de 130 000 postes (sur 822 000) constamment utilisés par plus de 300 000 employés. «Il était nécessaire qu'une telle décision soit prise directement par la gouvernance de l'entreprise explique » explique Philippe Charpentier, directeur du développement du groupe La Poste. « Nous possédons la plus grande flotte privée de machines informatiques en France et sommes l'un des plus grands parcs d'Europe». [[page]] Le but avoué du groupe consiste à baisser de 30% les émissions CO2 de son parc IT d'ici 2012. La Poste, dont le chiffre d'affaire a atteint 21 milliards d'euros en 2009, devra préalablement investir 6,9 millions d'euros dans ce plan Green IT pour en récupérer ensuite les bénéfices, estimés à 16,5 millions d'euros en 2010. Si cette stratégie Green IT parvient à se démarquer de celles d'autres entreprises, c'est avant tout parce qu'elle prend en compte l'ensemble du cycle de vie des appareils de son parc informatique. Du choix des achats jusqu'à la gestion des ventes de matériels usagés, en passant par la réduction du parc de l'entreprise, La Poste a élaborée une sorte de cahier des charges, stricte et écologique, qui lui permet de prendre des décisions qui devraient devenir très rentables sur le long terme. En effet, le groupe privilégiera dorénavant les écrans plats et les PC portables de grande autonomie en remplacement de ses écrans cathodiques et de ses PC fixes. Agissant également sur le comportement des utilisateurs, La Poste prévoit d'intégrer des logiciels d'extinction/veille presque systématiquement, afin d'éviter les consommations de courant inutiles. De la même manière, toutes les imprimantes seront désormais mutualisées à leur maximum et les vidéoconférences seront privilégiées pour les réunions. Concernant les serveurs et centres de calculs, ils devraient progressivement être hébergés dans des « Green datacenters », à faible consommation. La virtualisation des serveurs et la déduplication des données s'imposent également comme des incontournables, ce principes sont en effet indispensable pour gagner en espace de stockage tout en réalisant des économies d'énergie. (...)

(12/03/2010 16:55:24)

Décisionnel : accéder aux rapports BIRT depuis son iPhone

Les utilisateurs des outils de reporting BIRT vont pouvoir consulter leurs rapports depuis leur iPhone. L'éditeur de solutions décisionnelles Actuate, qui est à l'origine du projet Open Source BIRT -business intelligence and reporting tools- basé sur Eclipse, propose gratuitement sur l'App Store, l'outil BIRT Mobile Viewer. Ce dernier va permettre d'accéder aux rapports qui auront été stockés sur la plateforme de partage en ligne BIRT OnDemand, environnement pouvant être lui-même gratuitement testé pendant trois mois. Les contenus BIRT pourront être marqués pour s'assurer du mode d'affichage le plus adapté (portrait ou paysage) sur le terminal. On secoue l'iPhone pour revenir à l'écran d'accueil et sélectionner un nouveau rapport à explorer. (...)

(12/03/2010 16:44:27)

La gestion des datacenters laisse encore à désirer selon IDC

Si la virtualisation et l'automatisation ont été à l'origine de gains en efficacité considérables dans les centres de calcul, ils ont aussi engendrés de nouveaux problèmes. Dans le rapport de recherche publié par IDC et intitulé «Améliorer la gestion des datacenters : une étude européenne 2010», on trouve un certain nombre de situations à l'origine de ces augmentations des dépenses. Il apparaît notamment qu'environ 25 % des organismes gèrent encore leurs serveurs et leurs fonctions de stockage manuellement, ce qui fait grimper les coûts, comparativement à ceux qui utilisent certains outils. On trouve aussi que seuls 14 % de ces organismes ont établi un système de gestion totalement intégré. Et pour seulement 30 % des entreprises, les coûts d'exploitation des centres de données sont une priorité, 25 % étant spécifiquement concernées par le coût des licences logicielles. Dans son rapport, IDC fait aussi remarquer que les utilisateurs finaux ont des approches différentes de la gestion des datacenters. Quelque 58 % cherchent des solutions modulaires et 42 % préfèrent une approche intégrée. Les fournisseurs doivent donc vendre des packages pour varier leur approche et répondre aux différents besoins, indique l'étude. La virtualisation a également changé la manière dont sont gérés ces centres. L'étude montre ainsi que l'intégration serveurs, le stockage et la gestion des réseaux, cités par 31 % des organismes interrogés, sont au coeur des préoccupations, même si le tableau est plus complexe. Par exemple, les datacenters de grande taille sont surtout concernés par l'unification de leur gestion physique et virtuelle alors que les sites plus petits découvrent que l'intégration de différentes technologies de virtualisation rapportée à une stratégie de gestion unique peut être essentielle. Pour Giorgio Nebuloni, chercheur en Systèmes et Infrastructure pour IDC, «les DSI sont aux prises avec les conséquences de la virtualisation. Si les avantages sont évidents, l'impact sur la gestion se révèle comme un défi, et de nouveaux modèles de gestion seront nécessaires pour veiller à ce que cette virtualisation continue à avoir un effet positif sur la manière dont les centres sont administrés. » Crédits photo : datacenter de Sun à Broomfield [[page]] Selon IDC, le marché des produits de gestion par virtualisation est «grand ouvert.» 52 % des entreprises s'en remettent à leur fournisseur pour la virtualisation, 32 % utilisent les systèmes de leur fournisseur pour gérer leur environnement virtuel, et 16 % piochent dans l'offre de Suites de gestion. L'automatisation des centres de données augmente de manière importante. 69% de ceux qui y ont recours déclarent qu'il est nécessaire d'améliorer son adéquation avec les objectifs de l'entreprise. L'automatisation est principalement conditionnée par les coûts liés à l'amélioration de la sécurité pour réduire les erreurs, second facteur le plus souvent impliqué dans l'automatisation. Commentant ces résultats, Nathaniel Martinez, directeur programme Systèmes et Infrastructures chez IDC a déclaré : «Les gestionnaires de datacenters sont beaucoup plus soucieux de trouver des fournisseurs qui peuvent répondre à leurs problèmes de sécurité et de capacité plutôt que de s'assurer que leurs centres sont adaptés aux besoins de leur entreprise. » «IDC estime que les responsables technologiques doivent à la fois réduire leurs coûts d'exploitation et dresser un plan sévère sur la manière dont les investissements réalisés dans leur centre de données peuvent contribuer à la réussite commerciale de l'entreprise. » Jon Gasparini, consultant chez Morse souligne enfin qu'«entreprendre un vaste programme d'automatisation dans l'entreprise peut être intimidant et peut prendre beaucoup de temps. Les entreprises doivent également prendre conscience que ce n'est pas du tout ou rien. Il est possible et souvent préférable de procéder par étape. Parmi les tâches de gestion à automatiser en premier, les entreprises devraient choisir celles qui consomment le plus de temps. Si elles font cela, en quelques mois elles pourront bénéficier d'un retour sur investissement. » (...)

(11/03/2010 17:31:35)

Cloud computing : CA acquiert Nimsoft et ses outils de suivi des performances IT

Sans surprise, CA poursuit sa montée en puissance vers le cloud computing avec un nouveau rachat. Après Cassatt, Oblicore puis 3Tera le mois dernier, le fournisseur américain met la main sur Nimsoft pour 350 millions de dollars. Cet éditeur californien, dirigé par Gary Read (photo ci-dessus), apporte à CA des outils de suivi des performances IT pour les infrastructures internes et externes (applications en mode SaaS, services hébergés, environnements cloud). Nimsoft a notamment développé des offres pour Rackspace et pour le cloud d'Amazon, EC2. Son acquisition devrait être effective à la fin de ce mois. En ajoutant ces solutions à son catalogue, CA compte attaquer de nouveaux segments de marchés : les entreprises en croissance (réalisant entre 300 M€ et 2 Md€ de chiffre d'affaires), les économies émergentes, ainsi que les fournisseurs de services hébergés qui leur proposent des services d'administration IT via le cloud, explique Chris O'Malley, vice président exécutif de CA. Dans un billet de blog, Gary Read, le PDG de Nimsoft, considère que cette absorption va permettre à sa société de poursuivre sa course. « Le marché évolue et se modifie si rapidement que je craignais que Nimsoft ne puisse pas, seul, tenir la cadence. Nous recrutons aussi vite que nous le pouvons, mais il y a des limites naturelles aux capacités de croissance d'une société... ». Sur son segment, Nimsoft concurrençait les quatre grands acteurs de l'administration de systèmes que sont BMC, HP, IBM et CA lui-même. (...)

< Les 10 documents précédentsLes 10 documents suivants >