Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 1081 à 1090.
| < Les 10 documents précédents | Les 10 documents suivants > |
(19/05/2010 09:36:47)
Annuels Overlap : victime des mainframes
« Une année calamiteuse », c'est ainsi qu'Overlap qualifie l'année 2009 et le marché des mainframes sur lequel il est un acteur historique. Toutefois, l'intégrateur avance des arguments pour montrer qu'il a mieux traversé les turbulences que l'ensemble de son secteur et qu'il saura rebondir dans les prochains mois. Le chiffre d'affaires annuel (CA) non audité pour l'exercice clos au 31 mars dernier, se monte à 179,4 millions d'euros contre 210,5 un an auparavant. Pris ainsi, les chiffres montrent une forte baisse, de 14,8%. La société explique cette baisse par deux facteurs, l'un évident, l'autre plus exceptionnel.
Elle a d'abord subi les effets de la crise économique, particulièrement forts sur son marché, celui des mainframes. Un marché en baisse au plan mondial de 25% selon les grands cabinets d'études, Gartner, IDC, PAC. Tout compte fait, Overlap a même mieux résisté que l'ensemble de son marché : -14,8% contre -25%. « Le CA sales-in de nos grands partenaires constructeurs, IBM, HP, Sun, celui qu'ils réalisent avec nous, n'a pas baissé, alors que plusieurs de nos confrères ont perdu plus de 50%. Notre activité hardware s'est donc bien comportée, dans un marché qui a connu une année calamiteuse »
Réduction de coûts et cession
La société a également subi la perte d'un marché public, au Ministère des finances, qui représentait 25 M€ sur l'exercice précédent (2008-2009). Un marché non renouvelé comme pour d'autres sociétés de services. Sans cela, la société serait à-3 ou -4%. « J'aurai signé des deux mains pour un tel chiffre » nous explique Georges Horoks le Pdg d'Overlap.
Pour le nouvel exercice, le groupe compte d'abord sur cette expérience de la traversée d'une crise majeure et ensuite sur son développement dans les services aux infrastructures. « Nous n'avons pas de raison de craindre les mois à venir, souligne Georges Horoks , car nous avons montré notre capacité de résistance durant la crise et notre activité services nous rend plus indépendants et plus profitables ».Sur le dernier exercice, la société a réalisé sur ce secteur 10,5 M€ au 1er trimestre et 18,2 au 4ème. Elle a également fortement réduit ses coûts lors du dernier exercice. 65 collaborateurs ont quitté le groupe, sur un effectif total en début d'exercice de 540 salariés. Dans la même optique, Overlap vient de céder Ovelia, sa filiale SSII, ce qui lui permet de se recentrer encore plus sur son activité de services autour des infrastructures. Une activité qui la rend plus autonome, moins dépendante de ses partenaires constructeurs.
APX lance Solution Datacenter ou le cloud par la pratique
Virtualisation du poste de travail, des solutions de stockages, quelles applications transférer vers le cloud privé, si les offres technologiques apportent des réponses, « les entreprises ont besoin de toucher, comprendre, visualiser les bénéfices apportés par le cloud » souligne Yves Pellemans, directeur technique d'APX. Fort de ce constat, la SSII a choisi d'installer au siège à Saint Cloud, une salle comprenant un datacenter reprenant l'ensemble des configurations existantes. Des blades IBM, HP, des baies de stockage EMC, la couche de virtualisation est assurée par VMware. Si on ajoute dans la partie serveurs Cisco, on retrouve l'alliance VCE (VMware, Cisco, EMC), qui pousse l'architecture unifiée au sein des datacenters à travers l'offre Vblock. Plutôt orienté vers les grands comptes, on notera ainsi, qu'APX propose une offre Vblock à destination des PME.
L'intégrateur va donc proposer différents ateliers de formations auprès de ses clients sur des sujets aussi variés que l'urbanisation du datacenter, la virtualisation du poste de travail, le pilotage des infrastructures, la sauvegarde et la déduplication.
[[page]]
Les entreprises pourront reproduire leur propre environnement informatique et soumettre ainsi leurs problématiques, qui sont parfois spécifiques.
Un investissement sur l'avenir
Pour Noël Sailles, PDG d'APX, « cette offre est un pari sur l'accompagnement des entreprises dans leur migration vers le cloud privé » et d'ajouter que « l'investissement de la part de sa société pour construire ce service est de l'ordre de 1 million d'euros, sans compter les coûts de formation aux différentes certifications ». Le dirigeant est d'ailleurs fier d'être le premier en France à être certifié VCE. Mais rien n'est exclusif, souligne Noël Sailles, « l'alliance VCE pourra devenir VCN (en référence à Netapp) à terme, et nous serons agnostiques sur d'autres solutions d'architecture unifiée ».
Pour autant, la SSII bénéficiera d'une attention particulière des différents partenaires technologiques, avec des mises à jour et l'apport des dernières évolutions. Yves Pellemans a indiqué par exemple l'arrivée de Vplex d'EMC d'ici la fin de l'année, ainsi que la sortie prochaine de l'hyperviseur client de VMware.
Une première partie du pari est déjà remportée, les premiers ateliers affichent complets.
Citrix installe XenApp dans le cloud d'Amazon
«La virtualisation des applications permet aux gestionnaires informatiques de n'avoir à gérer qu'une seule instance de chaque application, qu'elle soit hébergée dans le datacenter ou dans le Cloud (EC2 dans le cas présent) » écrit Simon Crosby, PDG de Citrix, dans un blog. « Les applications sont ensuite rendues directement disponibles via un streaming logiciel à des appareils sous Windows pour une utilisation en mode connecté et déconnecté.» Le pilote permettra aux clients de Citrix de transférer leurs licences XenApp depuis leur propres datacenters vers Amazon EC2 et « d'exécuter leurs applications dans un environnement entièrement compatible » a déclaré l'éditeur. Cependant, cette éligibilité est réservée aux clients de Citrix également adhérents au Windows Server Licence Mobility Pilot d'Amazon, lequel permet la migration des licences Windows Server vers Amazon EC2.
Le pilote XenApp/Amazon ne supporte pas encore le Virtual Private Cloud (VPC) d'Amazon, dont l'objectif est de mettre les ressources informatiques exécutées dans les centres de calcul d'Amazon à un niveau de sécurité équivalent à celui ayant cours en entreprise. «Nous continuons à travailler avec Amazon sur son projet d'incorporer le VPC au sein de notre pilote dans le futur » a déclaré Citrix. Aujourd'hui, ce projet est donc d'une utilité limitée, mais reste potentiellement intéressant pour les entreprises cherchant à déterminer si, à terme, elles pourraient alléger leur infrastructure informatique interne en transférant une partie de l'activité vers un fournisseur de Cloud. L'application XenApp tournant sous EC2 d'Amazon pourrait permettre en effet à une entreprise de réduire considérablement le nombre de serveurs physiques qu'elle a à gérer.
Franchir le rubicond cloud
Simon Crosby admet que les clients actuels se plaignent souvent de ce que les clouds ne sont pas de « classe entreprise », et se disent préoccupés par la disponibilité et la sécurité de leurs données. Mais il affirme que les services clouds sont en train de gagner rapidement en maturité et offrent de nombreux avantages que ne pourraient fournir le datacenters classiques.
[[page]]
Sur Amazon, « avec une seule requête d'API, vous pouvez créer une base de données SQL de 1 To qui est sauvegardée et disponible en permanence, » écrit le dirigeant. « La seule chose à faire est de payer pour les unités de calcul et de stockage. Alors, pourquoi ne pas développer une application qui sache en profiter ? Si l'application est corrélée à la base de données existante de l'entreprise, c'est impossible. Si ce n'est pas le cas, alors ce serait vraiment trop bête de ne pas le faire.» Simon Crosby ajoute que «l'utilisation extensive de l'automatisation dans le cloud, les rend en général beaucoup moins sensibles aux problèmes qui dominent traditionnellement dans l'entreprise, à savoir les erreurs de configuration dues à l'intervention humaine. »
« Les clients doivent encore évaluer avec soin les clouds de type infrastructure-as-a-service (IaaS) pour s'assurer qu'ils sont capables de prendre en charge une application spécifique » écrit-il. « Le plus important est d'estimer les apports de l'offre d'un vendeur Cloud IaaS particulier, et voir comment elle peut s'adapter aux exigences de vos applications d'entreprise,» a insisté le responsable. « Est-ce que l'ensemble des fonctionnalités de l'IaaS est compatible avec vos applications ? C'est la question à laquelle il faut répondre en priorité. Seulement alors vous pourrez apprécier si la qualité de l'offre est de « classe d'entreprise. »
SapphireNow 2010 : SAP garde le cap sur ByDesign 2.5 et l'analyse en mémoire
L'offre de rachat faite à Sybase braque opportunément les projecteurs sur SAP au moment où s'ouvre Sapphire, la conférence utilisateurs de l'éditeur d'ERP. Cent jours après avoir pris, au pied levé, la succession de Léo Apotheker remercié par le conseil d'administration, le tandem qui assure la direction du groupe se sait attendu sur plusieurs terrains. Les co-PDG Jim Hagemann Snabe et Bill McDermott se sont engagés à restaurer la confiance avec les clients, douchés par le vif contentieux ouvert sur le coût de la maintenance. Ils ont aussi promis de doper l'innovation et seront jugés sur pièces. Il convenait donc de donner à SapphireNow, l'édition 2010 de la conférence utilisateurs, une certaine solennité. L'événement se tient pour la première fois simultanément aux Etats-Unis en en Europe. Hier, les allocutions d'ouverture se sont faites en duplex entre Francfort et Orlando (Floride), avec un direct sur le Web. Au total, du 17 au 19 mai, SAP prévoit de réunir 50 000 participants, entre les rassemblements allemand et américain et le salon virtuel www.sapphirenow.com (où sont retransmis toutes les présentations et ateliers).
Business ByDesign 2.5 à la fin juillet
Il est coutume de convier à ces conférences des personnalités publiques qui viennent « faire le show ». Pour suivre le fil rouge du développement durable auquel il prétend, SAP a fait intervenir Richard Branson, fondateur de Virgin, et Al Gore, ancien vice-président des Etats-Unis, prix Nobel de la paix. Le premier parlait depuis Francfort, le deuxième depuis Orlando. Une heure plus tôt, un autre duplex avait été organisé pour une conférence de presse réunissant les co-PDG, ainsi que le directeur technique, Vishal Sikka. Ce dernier est, depuis les remaniements de février opérés à la direction de la société, le cinquième membre du conseil exécutif de SAP (executive board). Sans surprise, il fut question de mobilité, de bases de données d'un nouveau type et de traitements en mémoire (in-memory). C'est tout l'objet du rachat sur Sybase. Mais les dirigeants ont également insisté sur Business ByDesign, l'offre de gestion intégrée proposée en ligne aux PME et qui ne rassemble toujours qu'une centaine de clients (pour des questions de rentabilité, SAP limite pour l'instant le nombre d'utilisateurs sur sa plateforme).
[[page]]
La version 2.5 de Business ByDesign, en partie multitenant, sera disponible fin juillet. Elle disposera de fonctions analytiques contextuelles, exploitant la puissance du in-memory, et permettra une personnalisation plus poussée. Les partenaires pourront par ailleurs lui apporter des fonctions complémentaires [autour des outils de reporting]. Il faudra encore attendre plusieurs mois (2011 ?) pour une disponibilité générale de cette application (aujourd'hui disponible sur six pays seulement), mais Jim Hagemann Snabe a réitéré que, loin de se contenter d'être une solution de plus, concurrente des autres, elle va, ni plus ni moins, changer les règles sur le marché du « on demand ».
Sybase continuera à se développer
Revenant sur la transaction avec Sybase, le co-PDG insiste : « Nous n'avons pas acheté Sybase pour acquérir des parts de marché mais pour faire progresser la société. En matière de base de données, nous croyons fermement que l'on va faire évoluer la façon dont les données seront capturées, stockées et analysées, a-t-il indiqué faisant notamment référence au stockage en colonnes utilisé par Sybase pour sa base IQ. De son côté, Bill McDermott a assuré qu'il n'y aurait besoin de réaliser aucune synergie de coûts pour réaliser la fusion entre Sybase et SAP. « Il n'est ici question que de croissance, de satisfaction des clients et d'extension de notre champ d'action. Nous continuerons à fonctionner indépendamment afin que Sybase puisse continuer à se développer dans les solutions analytiques et la mobilité ». SAP, de son côté, restera totalement ouvert aux différentes bases de données, a-t-il réaffirmé. « Chaque société poursuivra sa croissance en tirant parti de ce rachat et on ne verra pas de gens démoralisés comme on a pu le voir dans d'autres cas », a-t-il ajouté en pointant en filigrane les licenciements et départs générés par le rachat de Sun par Oracle.
Le in-memory doit transformer l'usage des applications
Interrogé sur ce qui devrait résulter de concret de ce rachat, Jim Hagemann Snabe a rappelé que la technologie in-memory permettait d'accéder dix fois plus vite aux données placées en mémoire qu'à celles stockées sur disques durs. « Associée aux bases de données en colonnes, elle va permettre de créer des applications d'un nouveau type, apportant des capacités de simulation et capables d'explorer la totalité des données d'une entreprise sur plusieurs années », a-t-il évoqué. Il rappelle que SAP travaille depuis longtemps sur sa technologie in-memory d'abord appelée BI Accelerator (en 2008), puis BW Accelerator, mise l'an dernier au service de l'application décisionnelle Explorer (annoncée sur Sapphire 2009). « Nous l'utilisons en interne pour analyser notre pipeline [opportunités commerciales susceptibles de se réaliser] ».
[[page]]
Une réponse à Oracle Exadata en préparation ?
Interrogé sur le recours à ces technologies pour le datamining, Jim Hagemann Snabe souligne l'exigence de vitesse requise pour ces applications : « Imaginez ce que vous pourriez faire en accédant, sur un terminal mobile, à des fonctions d'analyse prédictive exploitant l'analyse de données en mémoire. C'est ce genre d'applications dont nous voulons tirer pleinement parti. » Des fonctions in-memory que l'on pourra donc exploiter sur les trois modes de déploiement que SAP promeut désormais avec ardeur : le classique « on-premise » (serveurs internes à l'entreprise), le « on-demand » et les terminaux mobiles.
Intervenant à plusieurs reprises aux côtés des co-PDG, en particulier pour réaffirmer la solidité des technologies Netweaver, le directeur technique Vishal Sikka a ajouté que des appliances (serveurs spécialisés) in-memory permettraient de réduire sensiblement le coût d'exploitation des technologies in-memory. Il indique que SAP travaille dans ce domaine avec HP, notamment, pour concurrencer des solutions comme celles que propose Oracle avec Exadata. Des précisions sur ces produits devraient être données ultérieurement, promet-il.
Pour ce SapphireNow, Jim Hagemann Snabe et Bill McDermott ont aussi prévu de faire des annonces : "raccorder les équipes de direction aux données du terrain", par les outils mobiles et les solutions analytiques, semble être l'un des mots d'ordre du moment.
CA World'10 : Tout pour le cloud (MAJ)
Après Bill McCracken, le CEO de la compagnie, Ajei Gopal, le vice-président exécutif produits et technologie, a expliqué avec un certain talent comment le cloud allait transformer l'avenir de l'informatique professionnelle. Très pédagogue, ce dernier a particulièrement insisté le fait que l'arrivée du cloud transformait la manière de gérer et de sécuriser les systèmes d'information. « Au lieu d'être un fournisseur de services monolithiques, le pool informatique est appelé à devenir le gérant d'une offre dynamique avec des ressources internes et externes pour fournir des services à des utilisateurs internes et externes », a expliqué Ajei Gopal. « Quand cela se produit, tous les discours rhétoriques sur l'alignement des services informatiques sur le business de l'entreprise deviennent caducs car désormais - pour de nombreuses entreprises - c'est justement le business. On assiste à un changement de paradigme ».
Pour suivre ce mouvement les entreprises doivent bien sûr adopter le cloud, qu'il soit de type IaaS comme chez Amazon, SaaS comme chez Salesforce.com ou PaaS comme avec Azur. Très pragmatique, le dirigeant de CA Technologies ajoute que « bien que nous entrons dans l'ère cloud, chaque innovation en informatique est rentable. Les technologies existantes, y compris les mainframe et les éléments de l'environnement distribué, seront toujours des composants essentiels des datacenters ».
Illustration Ajei Gopal, vice-président exécutif produits et technologie de CA Technologies
[[page]]
Alors que 60% du chiffre d'affaires de CA Technologies (4,2 milliards de dollars sur le dernier exercice) reste liée à l'activité mainframe, l'entreprise a fait du cloud computing un de ses principaux axes de développement, en insistant notamment sur la sécurité, en proposant une outil de gestion en mode SaaS, a expliqué Tom Kendra, vice président en charge des produits et solutions d'entreprise. « La gestion de la couche de virtualisation et des nouveaux services reposant sur le cloud n'est pas une tâche facile, en partie parce que les technologies ont été installés en plus de - plutôt que en remplacement de - l'infrastructure informatique existante. Ce point nécessite don une approche de gestion hétérogènes, avec des systèmes physiques et virtuelles » poursuit Tom Kendra.
Pour accompagner les entreprises dans leur mutation vers le cloud, l'éditeur met en avant ses solutions avec notamment l'arrivée de Nimsoft On Demand, la déclinaison SaaS de l'outil de monitoring, déjà adopté par Sycom Technologies et American Integration aux Etats-Unis. En complément, Nimsoft présente plusieurs produits dont Unified Monitoring Portal, un outil Web 2.0 très intuitif pour superviser en ligne ses données, et Power Monitor, qui permet aux utilisateurs de cartographier la consommation électrique d'un datacenter et de ses onduleurs dans un seul tableau de bord. Après SMI, l'éditeur a profité de son rendez-vous annuel pour dévoiler sa suite Cloud Connected Management qui vient répondre aux défis posés par les nuages informatiques.
[[page]]
Cette suite regroupe quatre produits : Cloud Insight pour standardiser les pratiques cloud internes et externes. Cette solution exploitera notamment les données fournies par la toute nouvelle communauté Cloud Commons pour aider les responsables informatiques à prendre les meilleurs décisions; Cloud Compose repose sur un catalogue de composants logiciels pour faciliter la création et le déploiement de services clouds ; Cloud Optimize aidera les utilisateurs à améliorer les services et les infrastructures du nuage ; enfin Cloud Orchestration apportera un contrôle de la production et l'automatisation de certaines procédures. Tous ces outils reposent en grande partie sur des technologies issues des rachats de 3Tera, Oblicore et Cassatt. Les deux premiers composants de cette suite sont disponibles immédiatement les deux autres le seront en juillet et en octobre prochain, a précisé Chris O'Malley, vice-président exécutif en charge du cloud chez l'éditeur. « Vous n'aurez pas besoin d'attendre la fin de l'année pour bénéficier de ce produit, deux briques de base sont déjà disponibles ».
CA a également annoncé trois produits dédiés à la virtualisation, qui sont Virtual Assurance pour surveiller les performances et éventuellement corriger des défaillances dans les environnements virtuels; Virtual Automation, qui déclenche des check-up automatiques de l'infrastructure virtuelle, et enfin Virtual Configuration qui supervise le développement et les changements de configuration pour répondre aux besoins de conformité réglementaire et d'audit. Tous ces produits arriveront sur le marché en juin, mais l'éditeur n'a pas encore fournit une date de commercialisation exacte ni d'informations sur les prix.
L'ADEN trace la voie des clouds communautaires locaux
La commission Infrastructures de l'ADEN a rendu ses propositions pour une stratégie alternative en matière de cloud computing dans le cadre du grand emprunt national. Pour rappel, ce plan prévoit 4,5 milliards d'euros pour le développement de la société numérique, dont quelques centaines de millions d'euros seront consacrés au cloud computing. L'association recense les différentes orientations de l'informatique dans les nuages ; privé, public, hybride et communautaire. C'est ce dernier point qui a les faveurs de l'ADEN et plus particulièrement des clouds communautaires locaux.
Sur le plan de la définition, le modèle communautaire est constitué d'une infrastructure partagée entre plusieurs organisations supportant une communauté précise et ayant des préoccupations communes (justice, éducation, santé, industrie, culture, etc.). L'adjectif local implique la participation des collectivités territoriales à travers des partenariats Publics-Privés pour construire ce type de cloud. Ils s'appuieront sur des datacenters en France, ainsi que sur des plates-formes de services et d'infrastructures numériques mutualisés à destination des entreprises, des administrations, des établissements publics régionaux et des citoyens. L'étude souligne quelques initiatives déjà existantes, comme ITerritoires regroupant 6 territoires Dunkerque, Lyon, Osartis, la Seine et Marne, l'Yonne et Caen, qui se sont engagés à soutenir et à accompagner des projets de datacenters.
L'objectif, à terme, sera de mailler l'ensemble des clouds communautaires locaux au niveau national, pour bénéficier des avantages de la puissance de calcul combinée et de la mutualisation des applications.
Des raisons politiques et industrielles
La mise en avant de ce modèle répond également à des considérations moins technologiques. Devant la domination du continent nord-américain, le cloud communautaire local conforte la souveraineté nationale tant sur le plan des compétences, que sur la localisation des données transitant sur le réseau. La création de datacenters sur les collectivités territoriales implique également des créations d'emplois directs ou indirects, en facilitant le télétravail par exemple.
[[page]]
Sur le plan industriel, ces propositions tentent de remédier à l'obsolescence du parc de datacenters français. L'étude souligne que 40% des centres existants ont des problèmes d'alimentation électrique et de climatisation. L'idée est donc de répondre à la fois à des considérations environnementales, en construisant des datacenters plus éco-responsables, mais également de productivité en proposant plus de capacité aux entreprises pour les infrastructures et les services en mode hébergé.
Une stratégie en 3 axes
L'ADEN préconise donc un plan en trois axes, le socle de base est constitué par des centrales numériques locales, qui organisent le stockage de données, l'hébergement d'applications, la gestion des flux. L'association précise que ces centrales peuvent aussi bien être des salles de 100 m² que des bâtiments de plusieurs milliers de mètres carrés. On notera que compte tenu de la rigueur budgétaire, un effort particulier sera réalisé sur la mise à niveau des infrastructures existantes et des « investissements incrémentaux » seront mis en place lorsque cela sera nécessaire.
Le deuxième axe porte sur la création de plates-formes mutualisées de services et d'infrastructures numériques pour des activités différentes comme l' e-commerce, l'e-éducation, l'e-administration, etc. Cette agrégation nécessitera la réalisation de Schémas Directeurs de Services Numériques qui définiront les techniques, les cibles visées, les modèles économiques, l'accompagnement, ...
Enfin, le dernier axe s'adresse aux pouvoirs publics, sur les aspects réglementaires, mais également sur le type d'ingénierie juridique sur lequel les collectivités territoriales vont s'appuyer pour investir et exploiter les datatcenters : partenariat public-privé, délégation de service public, société d'économie mixte, ... C'est dans ce cadre aussi que doit être défini la politique de soutien apporté par l'Etat dans le cadre du grand emprunt.
L'ADEN milite pour que des expérimentations régionales soient menées sous forme de partenariats publics-privés dans le cadre de la consultation publique qui sera lancée en mai ou juin 2010.
Crédit Photo: Iterritories.org
(...)(17/05/2010 12:21:51)IBM inaugure un laboratoire dédié à Power7
Ce centre d'étude focalisera ses travaux sur les Power System d'IBM, notamment leur optimisation, la sécurisation, ainsi que la virtualisation des logiciels à destination des datacenters. Il devrait également s'occuper de projets pour les clients internationaux et locaux. Pour Big Blue, cet investissement constitue une étape supplémentaire autour de ce même sujet. Il a en effet déployé des centres d'industrialisation et de développement dédiés aux logiciels et au stockage à Mexico et à New York.
Les ingénieurs du laboratoire de Manchester ont déjà développé IBM Power VM Lx86 pour les systèmes Power, un outil qui accompagne les clients dans la consolidation de leurs applications basées sur Linux. En parrallèle, ils ont travaillé aussi sur un projet améliorant l'optimisation des systèmes. D'autres chercheurs ont créé ce qu'IBM appelle « intelligent system tuning » qui donne la possibilité d'allouer automatiquement des ressources, comme de la mémoire ou de la puissance de calcul aux différentes charges de travail.
Le centre de recherche est relié à un datacenter qui dispose de plusieurs serveurs System, équipés de puces Power, qui serviront pendant les phases de tests et de développement. A noter qu'une majorité des ingénieurs de cette entité est issue d'une société Transitive, acquise en 2009 par IBM.
CA World'10: l'éditeur se rebaptise CA Technologies (MAJ)
Après Computer Associates et CA, l'éditeur répond désormais au nom de CA Technologies, une petite mise à jour sémantique qui entend bien capitaliser sur l'évolution de la société comme fournisseurs de solutions d'administration et de sécurité pour les systèmes d'information classiques et dans le cloud.
L'activité antivirus a par exemple été filialisée et l'avenir semble aujourd'hui passer par le cloud. Avec les solutions pour mainframes, c'est en effet un des principaux focus de l'éditeur durant cette semaine. David Hodgson, vice-président en charge du cloud chez CA Technologies, a par exemple mis en avant un site web maison autour de ces solutions (www.cloudcommons.com) qui a pour ambition de fédérer les contributions des spécialistes maison, des analystes et des partenaires.Laura Mc Cluer, responsable chez CA Technologies, du programme Cloud Community précise que les membres peuvent même échanger des informations et mêmes des notes sur les 3000 fournisseurs de services cloud sur le marché. « Des appréciations qui pourront être objectives avec des étoiles ou subjectives sous la forme de commentaires. »
En complément l'éditeur met également en avant SMI (Service Management Index) une plate-forme permettant de benchmarker les solutions du marché (3 000 à ce jour selon David Hodgson). Pour déterminer par exemple quel service de messagerie hébergé est le mieux adapté aux besoins de son entreprise.
Terminons tout de même par le principal événement de ce dimanche 16 mai, la conférence d'ouverture de CA World 10 avec Bob McCracken, le CEO de la société. Sans surprise, l'ancien cadre d'IBM a mis l'accent sur les changements attendus dans les systèmes d'information des entreprises. Le cloud computing est bien évidemment « le nouveau point d'inflexion de l'industrie IT. (...) Quand les choses changent, nous devons changer. Il faut bouger vers la virtualisation, aller vers le cloud, changer les modèles de coûts». Depuis plusieurs mois, la société occupe le marché et sensibilise ses clients et ses partenaires à cette évolution radicale, avec les sessions de sa Cloud Academy, ses études sur la sécurité des infrastructures dans les nuages ou la perte d'informations. Le dirigeant décrit également sa vision du marché : "Beaucoup de gens continuent de se demander si le cloud va vraiment se répandre. Je leur dis que non; je ne pense pas que le cloud est train de s'imposer. Je sais déjà qu'il va s'imposer puisqu'il est déjà très présent. La virtualisation et le cloud computing vont obliger les entreprises à s'adapter rapidement pour répondre aux demandes du marché et des clients. Nous sommes là pour aider nos clients à acquérir la compétitivité supplémentaire qui leur donnera un avantage supplémentaire pour passer les caps difficiles". Plusieurs rachats significatifs comme Nimsoft, NetQoS et 3tera ont également permis à l'éditeur de générer une partie de ses revenus sur des activités qui ne sont pas liées aux mainframes. Jusqu'à un tiers des 4,3 milliards du chiffre d'affaires réalisé sur le précédent exercice selon un responsable de CA. Le CEO de la compagnie précise encore que des acquisitions se feront encore en 2010 : "nous n'achetons pas de la croissance, mais j'essaie d'acquérir les technologies qui nous permettront de poursuivre notre croissance."
Au sujet du changement de nom de la société, Bill McCracken a eu le dernier mot en racontant une petite anecdote. C'est en effet après avoir constaté qu'en tapant CA dans le moteur de recherche de Google, il obtenait Californie (CA aux Etats-Unis) qu'il a décidé de modifier le nom de la compagnie. Il aurait également pu trouver Canada, Cocaine Anonymous, Crédit Agricole ou encore chiffre d'affaires. Si le nom CA Software a été un moment envisagé selon un cadre de l'éditeur, c'est finalement CA Technologies qui a remporté les suffrages. Un choix curieux car l'acronyme donne CAT, un célèbre fabricant d'engins de travaux ou la cellule de lutte antiterroriste dans la série "24 heures". Un changement de nom qui couterait à l'éditeur de 50 à 70 millions de dollars. CA Technologies devrait également augmenter de 50% son budget marketing (jusqu'à 200 millions de dollars en 2010 donc) pour mieux faire connaître ses ambitions dans le cloud.
(...)(14/05/2010 15:30:38)
EMC World : Un voyage vers le cloud privé
Ironie de l'histoire, à l'heure où le nuage de cendres volcaniques perturbait les liaisons transatlantiques, un autre nuage focalisait l'intérêt de beaucoup de monde à Boston. La vision du cloud privé d'EMC a été le leitmotiv de l'édition 2010 du congrès rassemblant les équipes du spécialiste des solutions de stockage et ses différents partenaires. Au menu, plusieurs annonces ont été faites, comme le lancement du produit Vplex, qui se charge de fédérer les différents équipements de stockage dans un ou plusieurs datacenters éloignés et facilite les échanges d'informations, grâce à un système de cache intelligent. De la même façon, cette gestion du cache a été intégrée à la technologie FAST (fully automated storage tiering) pour les systèmes de stockage, Clariion et Celerra. Couplée avec la capacité de compression des blocs de données inactives, la hiérarchisation des éléments de stockage est optimisée pour devenir plus fluide et plus rapide. On peut également citer, la technologie DD Boost intégrée dans l'offre Data Domain, dédiée à la déduplication des données. Cette solution permet d'accroître les performances des services de backup en améliorant sensiblement les débits (de 5,4 To par heure à 8,8 To par heure pour la solution DD 880).
Orchestrer le lien entre cloud privé et public
Quelques démonstrations ont montré l'intérêt des différents partenariats conclus par EMC. Le premier d'entre eux est la coalition VCE, alliant VMware, Cisco et EMC où chacun apporte son expertise, dans son domaine de prédilection stockage, serveur et réseau. La première illustration du travail commun est l'équipement Vblock qui se décline en fonction des capacités requises par les entreprises. Or la volonté d'EMC, comme l'a rappelé son CEO, Joe Tucci est que les infrastructures soient consommées comme des services. Pour cela, il est impératif de travailler à l'unification des infrastructures.
[[page]]
C'est dans ce cadre que Pat Gelsinger, COO d'EMC, a dévoilé furtivement dans une présentation le projet Redwood de VMware. Ce dernier repose sur vCenter Orchestrator et sur vCenter Lab Manager pour établir des liens entre les infrastructures du cloud privé et les services des clouds publics. Concrètement des applications issues d'un cloud public pourront migrer vers un cloud privé et inversement. Pour Denis Hoffman, vice-président de la coalition VCE, « notre but est d'apporter une simplicité, une flexibilité aux entreprises dans le cloud computing » et d'ajouter en écho aux propos de Joe Tucci, « à terme, nous offrirons un catalogue de services aux sociétés sans se soucier de l'infrastructure ». Chuck Hollis, CTO d'EMC lors d'un événement à Paris en mars dernier pronostiquait que le cloud transformerait sociétés d'infrastructures en « vending machine », que l'on peut traduire en distributeur de services (comme une machine à, café).
Les opérateurs à l'affût
Ce discours de simplicité et de mise à disposition de nouveaux services sonne très bien aux oreilles des opérateurs télécoms. De plus en plus ces derniers s'immiscent dans le cloud en mettant en avant leur expertise en matière de provisionning et de gestion de facturation. Fort de ce constat, des partenariats stratégiques sont en train de se nouer. Ainsi, lors d'EMC World, Orange Business Services nous a fait part de son intention de travailler sur ce type de relations sans préciser de calendrier. « Beaucoup de nos clients grands comptes réfléchissent sur ce basculement vers le cloud privé et le partenariat que nous avons avec EMC va certainement se renforcer et évoluer prochainement », souligne Philippe Roger, directeur grands comptes d'Orange Business Services. Pour Christian Hiller, PDG d'EMC France, ces échanges vont transformer la relation avec le client, « nous ne vendrons plus directement aux entreprises, mais Orange intégrera nos solutions dans son offre cloud ». L'opérateur a en tout cas invité à Boston près d'une quarantaine de DSI pour se faire une idée des dernières propositions d'EMC.
| < Les 10 documents précédents | Les 10 documents suivants > |