Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 1161 à 1170.
| < Les 10 documents précédents | Les 10 documents suivants > |
(09/04/2010 15:57:48)
IBM calme le jeu sur ses brevets avec la communauté Open Source
Après un dépôt de plainte auprès de la Commission européenne par une jeune société parisienne TurboHercules pour pratiques déloyales, un échange de lettres montrant que cette start-up violait plusieurs brevets d'IBM sur les mainframes, une communauté Open Source qui s'émeut d'une rupture possible de l'engagement d'IBM d'ouvrir certains brevets, Big Blue a repris la main pour calmer les esprits.
Dan Frye, vice-président pour le développement des systèmes ouverts d'IBM a répondu à un courrier de Jim Zemlin, directeur exécutif de la Fondation Linux, Big Blue tente de rassurer la communauté Open Source en soulignant que « les engagements pris par IBM en 2005 ne sont pas remis en cause. Il n'y aura donc pas de suite judiciaire concernant les 500 brevets ouverts à la communauté du logiciel libre ».
Dans cette lettre, le responsable d'IBM ne revient pas sur le cas particulier de TurboHercules, qui souhaite fournir un émulateur Open Source pour les mainframes et est accusé de violer 106 brevets d'IBM dont 2 seraient sur la fameuse liste des 500. Mais dans une réponse faite à nos confrères de Zdnet Allemagne, un porte-parole d'IBM explique « que l'accord sur les 500 brevets ne s'applique qu'aux développeurs Open Source qualifiées ou les sociétés considérées comme telle. Or nous avons des doutes sérieux sur la qualification de TurboHercules. » IBM tente donc de ménager à la fois ces intérêts vis-à-vis de la concurrence de Microsoft dans les mainframes et les relations avec la communauté Open Source. Des discussions devraient avoir lieu sur ce sujet lors du sommet Linux Foundation Collaboration, la semaine prochaine à San Fransisco.
Nehalem-EX et vSphere 4 avec les serveurs novascale bullion de Bull
« Avec notre offre bullx Série B en lame et Série R en rack (sur base Intel Xeon Westmere), nous couvrons une grande part des besoins en extreme computing, dans la banque, l'industrie et la recherche scientifique », assure Bruno Pinna, directeur marketing de Bull, « mais avec le lancement de la Série S (sur base Nehalem-EX/ https://www.lemondeinformatique.fr/actualites/lire-intel-nehalem-ex-cap-sur-la-performance-et-la-haute-disponibilite-30323.html), nous proposons des serveurs quadri sockets capables de monter en puissance grâce un lien d'interconnexion maison, le BCS (Bull Coherent Switch). Avec cette technologie, nous proposons des noeuds de 8, 12 ou 16 processeurs Xeon 7500 avec un maximum de 2 To de mémoire. » Depuis l'annonce Intel, on voit beaucoup de serveurs haut de gamme Nehalem-EX 4 ou 8 sockets reposant sur des composants standards ou spéciaux. Bull, comme SGI, s'est spécialisé dans le développement de solutions originales.

[[page]]
Même approche pour la gamme novascale bullion, Bull a en effet décidé de livrer nativement ses serveurs sur base Intel Xeon Nehalem-EX avec vSphere 4, la suite de virtualisation de VMware. « Nos serveurs novascale bullion partagent leurs caractéristiques techniques avec les bullx Série S mais, sur les premiers, nous avons décidé de mettre l'accent sur la fiabilité avec le support des fonctions Race et le partenariat avec VMware. Le marché évolue et nous pensons que la conjonction entre une machine « scalable » et l'outil vSphere 4 permet d'offrir à nos clients une plate-forme technologique stable et évolutive, et ce, dans un environnement critique virtualisé. » Sur la question de savoir pourquoi le partenariat a été fait avec VMware plutôt qu'avec Microsoft, Bruno Pinna assure trouver chez le premier une compréhension globale du marché, « on sent bien toute une stratégie cloud interne et une évolution vers le software mainframe. Nous avons également des projets en cours avec Microsoft qui reste un partenaire privilégié, mais les novascale bullion seront exclusivement livrés avec vSphere 4 et l'hyperviseur ESX 4. »

Pour l'instant, Bull ne propose pas de serveurs sur base AMD Opteron mais rien n'est définitivement exclu précise Bruno Pinna. « Nous avons effectivement une collaboration étroite avec Intel, nous finalisons par exemple avec ce dernier le Tera 100, un super calculateur pour le CEA capable d'atteindre le PetaFlop, une première en Europe. Nous nous focalisons dans nos choix et nous sommes très satisfaits de nos partenariats.»
Pour les prix, la gamme bullx démarre à 20K€. Pour les novascale bullion, Bull annonce 200K€ pour le serveur (avec WMware vSphere 4), 200K€ pour la solution de stockage et 100K€ pour les services associés.
Le cloud privé : priorité des DSI selon une étude PAC
Avec le concours d'EMC, d'Intel et de VMware, le cabinet d'études PAC a demandé à un panel de 200 décideurs informatiques français, répartis dans les principaux secteurs d'activités, leur vision du cloud computing. Étonnamment, le principal avantage mis en avant par ces responsables IT n'est pas la réduction des coûts de production ou les gains attendus pour la mise en service de nouveaux projets, mais la disponibilité des ressources (42% des réponses) et la flexibilité de la plate-forme (34%). Encore plus surprenant, l'optimisation de l'infrastructure et le paiement à l'usage ne rassemblent que 19 et 21% des « suffrages ». Christian Hilaire, PDG d'EMC France, analyse ces résultats en expliquant que « les entreprises démarrent aujourd'hui dans leur réflexion sur un cloud privé. Nos principaux clients réfléchissent à la question, c'est l'étape suivante après la virtualisation. Le cloud est bien la quatrième vague informatique après le mainframe, le PC client et le web. » Les responsables IT ont bien compris que le cloud allait leur permettre de masquer la complexité du système d'informations pour fournir des services à la carte. Et à la différence des projets informatiques traditionnels qui demandent de trois mois pour allouer des ressources à une application, la gratification est immédiate et de type self-service.
Parmi les inconvénients du cloud computing, nos responsables informatiques pointent à 50% la sécurité et à 35% la dépendance au réseau. Des freins liés à l'infrastructure et aux problèmes récurrents de sécurité. La dernière conférence RSA à San Francisco mettait également l'accent sur les défis sécuritaires qui attendaient le cloud (https://www.lemondeinformatique.fr/actualites/lire-les-defis-securitaires-du-cloud-30182.html). Pourtant, les principaux projets concernent aujourd'hui des clouds privés hébergés dans l'entreprise ou chez un tiers de confiance (opérateur ou intégrateur). Des solutions en théorie moins vulnérables que les clouds publics proposés par les éditeurs ayant flairés la bonne affaire. « Les opérateurs vont contribuer à structurer le marché en Europe, car ils possèdent les infrastructures indispensables pour faire transiter les processeurs les plus critiques à travers le cloud» précise Mathieu Poujol, directeur technologies chez PAC. « Ensuite tous les services de l'entreprise ne sont pas nécessairement hébergés dans un cloud. Il est possible de procéder par étapes » souligne Jean-Pierre Brulard, vice-président Europe chez VMware. Trois types de plates-formes services sont aujourd'hui définis pour le cloud : IaaS (le réseau, le stockage, les serveurs et les outils de virtualisation), PaaS (avec en plus les logiciels serveur, les bases de données, l'intégration SOA et les runtimes) et le SaaS (toutes ces briques avec les applications).
En illustration, Mathieu Poujol de PAC, responsable de l'étude sur le cloud computing en France
[[page]]
Autre réponse stupéfiante à la question sur les acteurs du cloud computing : Microsoft arrive en tête avec 50%, VMware suit avec 43% et Amazon ne pointe qu'à la huitième place avec 7%. Difficile à comprendre quand on sait qu'Amazon a lancé sa plate-forme EC2 en 2006 ! Un cloud arrivé à maturité avec une tarification très claire alors que Microsoft sort à peine de sa phase de tests et tente de commercialiser ses services depuis février dernier. Sur ce point précis, Mathieu Poujol précise que l'étude a été mené lors du lancement d'Azure début 2010 et que ces responsables IT ont dû être particulièrement sensibilisés au programme de Microsoft. Ce sont donc principalement les éditeurs qui sont spontanément associés au cloud et non pas les opérateurs ou les fournisseurs de services managés comme IBM ou HP.
Sur l'initiative des projets cloud, la DSI est aux commandes dans 67% des cas même les métiers et la direction générale pèsent un poids très lourd (26%). Les responsables IT semblent bien décidés à rester suffisamment réactif pour ne pas perdre la main face aux demandes des métiers. Point particulièrement intéressant dans le cadre des projets, quels sont les type d'application ou d'infrastructure concernés ? La messagerie reste toujours sur le podium avec 54% des réponses mais les ressources administratives (finance et compatibilité) arrivent sur la deuxième marche (26%) suivi de près par la CRM (24%). Les activités critiques de l'entreprise ne semblent donc pas mises à l'écart des projets cloud. Jean-Pierre Brulard précise que les différents modèles d'adoption applicatifs se résument à trois étapes, « la production informatique concerne tout d'abord les applications non critiques comme la messagerie » même si cette dernière reste particulièrement visible en cas de panne à la différence d'un ERP qui peut tomber 2/3 heures sans déclencher de plan Orsec. « Les entreprises passent ensuite aux applications métiers standards ou customisés ». On assiste là à un vrai basculement dans le monde cloud, principalement quand la virtualisation passe de 20 à 60%. « Dernière étape, l'extension au business continuity pour la gestion des risques. Mais aujourd'hui, chez les clients la vraie barrière reste le passage de l'étape 1 à la l'étape 2. »
[[page]]
A la question sur le type d'infrastructure, les décideurs plébiscitent à 71% le cloud privé quitte à développer plusieurs petits clouds à l'intérieur de l'entreprise pour répondre aux différents besoins. Mathieu Poujol estime toutefois que les clouds hybrides vont se développer naturellement avec la maitrise des clouds privés. Les clouds publics (7% des réponses) seraient réservés à une application bien précise comme la solution de SaleForce.com. Des clouds communautaires regroupant plusieurs services publics ne sont pas exclues avec des Conseils régionaux ou des ensembles de communes. « La ville de Barcelone, par exemple, a ouvert son cloud public aux hôpitaux et à sa pépinière d'entreprises » précise Mathieu Poujol.
La conclusion de cette étude que le cloud est devenu une réalité en France et que les infrastructures privées sont clairement la priorité. « Sans s'en rendre compte, en systématisant les VM, les entreprises arrivent naturellement au cloud interne » conclue Jean-Pierre Brulard. « Avec un taux de virtualisation 30% des portefeuilles applicatifs, la France est au niveau des États-Unis et du reste de l'Europe. À 30% de virtualisation, le coût au giga est de 18 cents. Avec une montée en charge pour arriver à 60%, le cout au giga passe 9/10 cents au giga pour les entreprises ». Mais aujourd'hui pour accompagner le développement du cloud et simplifier le transfert d'une VM, il est nécessaire de créer un marché Unique du cloud en Europe pour offrir un marché global aux acteurs européens.
(...)(08/04/2010 16:54:16)
Microsoft s'immisce un peu plus dans le calcul haute performance
En novembre dernier, Microsoft avait publié la version beta de Windows HPC Server 2008 R2. Aujourd'hui, la firme de Redmond annonce la disponibilité via téléchargement d'une mise à jour de cet outil. En 2008, Microsoft avait franchi le Rubicond en présentant, à Shanghai, un cluster basé sur Windows HPC se plaçant en 10ème position (19ème aujourd'hui) dans le classement des 500 ordinateurs les plus puissants dans le monde.
« Avec cette mise à jour, nous anticipons notre présence dans le Top 500 » explique Vince Medillo, directeur marketing produit, au sein du groupe dédié aux calculs haute performance. Cette seconde version de la beta doit prendre en considération les retours clients et les résultats des premiers tests réalisés sur les 1 000 nodes du centre de recherche de Microsoft. « Notre objectif est de rendre le calcul en parallèle plus facile, car aujourd'hui la programmation en parallèle est trop compliquée à mettre en oeuvre » souligne Vince Medillo. Des fonctionnalités intégrées dans le poste de travail doivent permettre d'optimiser la puissance des PC pour améliorer la vitesse des clusters. Ainsi, une société, disposant de 500 PC, pourra faire tourner un cluster HPC pendant la nuit, période où les salariés n'utilisent pas leur ordinateur. La mise à jour comprend également une intégration avec Excel, accélérant la programmation des plages de calcul. Dans un autre registre, les évolutions de Visual Studio 2010, présentées prochainement, aidera les développeurs à créer, débloquer des applications HPC.
La version définitive est attendue à l'automne 2010.
(...)(08/04/2010 16:06:10)Systèmes décisionnels intégrés : IBM renchérit sur Oracle Exadata
IBM vient de présenter plusieurs offres packagées associant intimement matériel et logiciel pour accélérer l'analyse de très importants volumes de données. Certaines de ces solutions reposent sur sa technologie DB2 pureScale dévoilée en octobre dernier. Destinée à ses systèmes Power, celle-ci optimise le traitement de bases très volumineuses gérées sur une combinaison de serveurs et systèmes de stockage reliés en grille, en limitant au maximum la dégradation des performances.
Les solutions présentées hier par IBM sont destinées aux applications d'entrepôt de données, mais aussi aux systèmes transactionnels. Elles viennent concurrencer directement les gammes Exadata d'Oracle. Ces dernières combinent elles-aussi matériel et logiciel en s'appuyant sur une architecture massivement parallèle de serveurs de bases de données et de stockage logés dans une armoire rack. La première version d'Exadata, annoncée en 2008, reposait sur du matériel HP et concurrençait les appliances de datawarehouse du marché (celles de Teradata, par exemple) ; la deuxième version, sur serveurs 'maison' Sun, vise aussi les applications de production.
Réduction de l'espace de stockage, recours aux SSD
Les annonces d'IBM ont porté d'une part sur pureScale Application System, associée aux environnements Power7 et aux serveurs d'application WebSphere, et d'autre part, sur la plateforme intégrée Smart Analytics Systems. Cette dernière peut être livrée sur des serveurs et systèmes de stockage IBM en environnement x86, mais elle est aussi disponible sur les mainframes System z. Chaque combinaison matériel/logiciel (ou 'appliance') est fortement intégrée à tous les niveaux, du processeur aux serveurs et aux systèmes de stockage, insiste IBM. Outre la rapidité d'analyse obtenue sur les données, notamment pour des applications de gestion des risques ou de mise à jour d'opportunités, Big Blue pointe la réduction de l'espace de stockage. Celle-ci peut aller jusqu'à 80%, en recourant à des algorithmes de forte compression des données.[[page]]L'offre pureScale vient répondre à des besoins transactionnels. Elle pourra être utilisée, par exemple, pour gérer les réseaux électriques 'intelligents' (smart grid).
En revanche, les solutions s'appuyant sur Smart Analytics sont plutôt destinées à des applications décisionnelles portant sur des données structurées et non structurées. Elles intègrent les solutions de Business Intelligence de Cognos et le logiciel de datawarehouse InfoSphere.
A noter qu'une option de stockage sur disque SSD est proposée pour augmenter encore les performances des systèmes (Oracle aussi fournit cette option sur Exadata, avec la technologie FlashFire de Sun).
IBM finance la migration des revendeurs de Sun
Pour vendre ces produits, IBM aimerait bien s'attacher les compétences des partenaires de Sun Microsystems (désormais racheté par Oracle). Pour soutenir leur démarche de migration vers ses configurations, IBM actionne le levier financier. En recourant à sa division Global Financing, il prévoit de dégager jusqu'à 500 millions de dollars en facilités de crédit pour aider les revendeurs de Sun à rejoindre ses rangs. Selon lui, plus d'une centaine d'entre eux aurait déjà étendu ou démarré un partenariat en s'appuyant sur ce financement.
Cisco adopte les Xeon 7500 d'Intel
1. Une lame serveur sur base Intel x7500 Nehalem-EX
Cliquer sur l'image pour l'agrandir
La lame UCS B440 M1 (en illustrtation) et les serveurs en rack UCS C460 M1 utilisent la gamme processeur Xeon 7500 d'Intel et seront disponibles cet été. Ces machines utilisent l'architecture FEXlink de Cisco qui permet d'étendre la commutation au plus près du rack de serveurs. Cela assure une multiplication par quatre de la bande passante, soit 160 Gbit/s, par rapport à la première génération de serveurs UCS. Cette série accroit également de 50% la bande passante en Fibre Channel et multiplie par 4 la capacité de calcul grâce aux puces Intel.
2. Deux commutateurs pour centre informatique unifié
Cliquer sur l'image pour l'agrandir
Cisco propose deux extensions pour le réseau - les commutateurs modèles 2232 et 2248 - afin de répondre à des besoins, soit supérieurs soit inférieurs en bande passante par rapport à la première génération du Nexus 2148 qui exploitait le Gigabit Ethernet.
Le modèle 2232 fournit 32 ports à 10 Gbit/s pour du Fibre Channel sur Ehernet afin de connecter des serveurs à des commutateurs Nexus 5000. Quant au modèle 2248, il fournit 48 ports à 10/100 Mbit/s.
3. Un commutateur SAN à 8 Gbit/s
Cliquer sur l'image pour l'agrandir
Le modèle MDS 9148 étend le commutateur SAN Fibre Channel de Cisco à 8 Gbit/s dans une configuration fixe de 1U. Il complète les modules Fibre Channel 8 Gbit/s pour le châssis MDS 9500. Il dope ainsi la commutation Fibre Channel au-delà des débits du MDS, c'est à dire le 1 Gbit/s, le 2 Gbit/s et le 4 Gbit/s.
4. Une appliance de services virtuels
Cliquer sur l'image pour l'agrandir
Le Nexus 1010 est une appliance de services virtuels. Elle est destinée à améliorer la montée en charge du commutateur virtuel Nexus 1000V. Elle réalise également l'analyse du réseau et le monitoring des services virtuels provisionnés sur des équipements d'origine Cisco dans un centre informatique.
(...)
Microsoft abandonne Windows Server pour Itanium
«Windows Server 2008 R2 sera la dernière version de Windows Server à supporter l'architecture Intel Itanium," indique Dan Reger, responsable de la plate-forme chez Microsoft, sur le blog Windows Server Division. SQL Server 2008 R2 et Visual Studio 2010 sont également les dernières versions pour Itanium." Ces annonces arrivent comme un véritable revers pour Intel, qui a bataillé pour imposer ses processeurs IA-64, Merced puis Itanium, sur les serveurs haut de gamme à tolérance de panne. Après plusieurs mois de retards, le fondeur avait annoncé en février dernier la version quatre coeurs de sa puce Itanium Tukwila. Rappelons pour être complet que Red Hat avait déjà annoncé en janvier dernier que la prochaine version de sa distribution Linux ne prendrait plus en charge la plate-forme Itanium.
Analyste au Burton Group, Nik Simpson a expliqué que ce n'était «pas une coïncidence que Microsoft annonce sa décision après qu'Intel ait dévoilé sa plateforme multi coeurs Xeon 7500 Nehalem-EX. Cette dernière inclut des fonctionnalités de fiabilité haut de gamme (Race) autrefois réservé à l'environnement Itanium. Pour Microsoft, la fiabilité a été la seule chose qu'Itanium avait pour lui ; le nombre de licences Windows vendues sur Itanium est négligeable par rapport à l'activité x64. Ainsi, la décision d'abandonner Itanium a probablement été très facile à prendre", conclut Nik Simpson sur son blog.
Dans son post, Dan Reger de Microsoft précise encore que "l'évolution naturelle de la plate-forme x86 64 bits (x64) a abouti à la création de processeurs et de serveurs qui offrent l'évolutivité et la fiabilité nécessaires pour supporter des charges de travail aujourd'hui qualifiées de «critique ». Conformément à sa politique de soutien standard, Microsoft continuera de fournir un support principal pour les systèmes Itanium jusqu'en juillet 2013, et un soutien prolongé jusqu'en juillet 2018.
[[page]]
Du côté de l'évolution de la plate-forme IA-64, Intel a récemment indiqué qu'il fournira au moins deux générations de plus pour Itanium (Poulson et Kittson) au cours des quatre prochaines années. HP, qui a fait un gros pari sur Itanium en abandonnant l'élaboration de son processeur PA-RISC, a déclaré à plusieurs reprises qu'il restait confiant quant à l'avenir Itanium. Cette dernière est encore utilisée sur ses solutions Integrity NonStop (ex Tandem) et SuperDôme. Mais la fin du soutien par Microsoft ne manquera pas de déclencher une nouvelle série de questions sur l'avenir de la plate-forme. Pour les systèmes Itanium, le retrait de Microsoft est «mauvais, mais pas catastrophique, du moins pour le moment », estime Nik Simpson, notre analyste du Burton Group.
La plupart des processeurs Itanium sont vendus avec les serveurs HP exécutant l'Unix maison, HP-UX, NonStop OS, issu de Tandem, ou OpenVMS, créé à l'origine par Digital. D'autres systèmes d'exploitation comme le Gecos 7 de Bull ont déjà commencé à travailler avec la plate-forme x86. «Alors, HP est susceptible d'être le dernier bastion encore debout avec des systèmes Itanium pour l'entreprise, mais les nouvelles fonctionnalités et l'évolutivité des Xeon 7500 (Nehalem-EX) sont en passe de modifier la donne. La question est donc de savoir quand HP migrera sa plate-forme Itanium vers x64 pour assurer l'avenir de HP-UX ou d'OpenVMS ? " La semaine dernière chez HP à Issy les Moulineaux, une matinée réunissait les clients utilisant encore la plate-forme Integrity NonStop pour leur présenter les prochaines évolutions de leur environnement. Et l'engagement de HP ne semblait pas faire défaut avec des améliorations à venir sur la répartition de la charge sur les processeurs et sur la gestion de l'environnement Pathway. Si l'Itanium ne semble pas mort chez HP, reste à savoir combien de temps Intel supportera cette plate-forme désormais cannibalisée par la montée en puissance des Nehalem-EX.
(...)(06/04/2010 10:15:34)
L'audit de la climatisation des datacenters devient obligatoire
Tous les systèmes de refroidissement d'une puissance égale ou supérieure à 12 kilowatts devront désormais être régulièrement audités par un organisme indépendant accrédité. Cela concerne notamment les climatisations de datacenters. C'est la conséquence d'un décret paru vendredi 2 avril 2010 au Journal Officiel. L'objectif de l'audit est de vérifier l'adéquation du système aux besoins et à l'état de l'art. L'auditeur aura notamment pour mission d'indiquer quelles améliorations il préconise pour le système, ce qui peut aller jusqu'à son remplacement, notamment si le système de refroidissement consomme trop d'énergie par rapport à sa puissance utile compte tenu de l'état de l'art.
Le décret précise : « L'inspection comporte l'inspection documentaire, l'évaluation, lors de l'inspection sur site, du rendement du système de climatisation et de son dimensionnement par rapport aux exigences en matière de refroidissement du bâtiment, ainsi que la fourniture des recommandations nécessaires portant sur le bon usage du système en place, les améliorations possibles de l'ensemble de l'installation, l'intérêt éventuel du remplacement de celui-ci et les autres solutions envisageables. »L'audit doit être réalisé tous les cinq ans et au plus tard dans l'année qui suit les remplacements d'équipements. La première inspection pour les systèmes existants doit avoir lieu dans les trois ans (deux ans pour les systèmes de plus de 100 kW).
Il n'y a cependant aucune obligation d'aucune sorte pour suivre les recommandations faites par l'auditeur. Et aucune sanction spécifique n'est prévue en cas de non-réalisation de l'audit obligatoire.Illustration : Système de refroidissement d'un datacenter HP à Wynyard au Royaume-Uni, crédits IDG NS Londres (...)(06/04/2010 09:59:38)
Cisco dévoile, en Australie, un client utilisant ses serveurs UCS
Comme il n'y a pas d'entreprise en France acceptant de témoigner de l'usage de la plateforme de serveurs Unified Computing System (UCS) de Cisco, et comme il est probable que cette solution ne soit au mieux qu'au stade de test dans les entreprises de l'Hexagone, Cisco vient de publier un communiqué indiquant que l'université australienne de Deakin déploiera cette architecture. On peut toutefois remarquer que pour un fournisseur américain comme Cisco c'est tout de même un comble que le premier cas (à notre connaissance) d'entreprise utilisant ses serveurs se situe sur le continent australien.
Ceci dit, le service informatique de l'université gère 300 applications pour 34 000 étudiants, et 2600 collaborateurs, professeurs et administratifs. Un des arguments avancés pour le choix d'UCS est l'accélération de la mise à disposition d'applications. Plutôt qu'un délai de 12 semaines, cette fourniture se fera en quelques minutes. La démarche consistera à assembler les différents silos dans le centre informatique au sein d'une architecture unique. Il y aura ainsi une consolidation et une virtualisation des ressources de calcul, de réseau et de stockage au sein d'un seul système. Ce qui devrait réduire les coûts et la complexité selon Cisco. C'est l'intégrateur Dimension Data qui est chargé de la mise en oeuvre du projet. (...)
Le cloud computing, avenir des opérateurs télécoms
Le monde des télécoms, côté opérateurs, n'est pas loin de faire sa révolution en passant de mesures d'économie drastiques, c'était en 2009, à un redéploiement qui aboutira en 2011. Tous les opérateurs français ont baissé leurs investissements logiciels et services en 2009, sélectionné leurs fournisseurs, réduisant leur nombre, en déréférençant une partie. Bouygues Télécom est allé le plus loin en ré-internalisant une partie de ses projets IT.
Dans cette spirale, seuls la TMA (Tierce Maintenance Applicative) et maintenant l'outsourcing ont sorti la tête de l'eau en 2009. « Le recours à la TMA était déjà en place, l'offshore est plus inhabituel dans les télécoms », note Daniel Esteves, consultant chez PAC. Mais cette croissance est en trompe l'oeil. Ces deux secteurs ont progressé en volume, mais fortement baissé en prix, comme tous les investissements des opérateurs de télécoms. Les prestataires des opérateurs ont accusé le coup, laminés par les restrictions budgétaire et les baisses de prix. En 2010 toutefois, l'investissement en logiciels et services des opérateurs de télécoms devrait commencer à reprendre. En moyenne de 3% estime PAC. « C'est très lié aux métiers des opérateurs » relève Daniel Esteves. « Ils tentent de sortir de la voix et des réseaux pour générer de nouveaux revenus ».
Les opérateurs font du cloud en interne et vont le vendre comme prestataire
Le cloud est un axe de développement très fort des opérateurs. A la fois comme clients et comme prestataires. Souvent, ils déploient en interne des solutions de cloud, les valident et les revendent ensuite. C'est la démarche d'Orange. Elle pourra englober d'autres prestataires dans un éco-systèmes cloud, dirigé par l'opérateur. Tous les aspects liés à la mobilité et aux smartphones sont également privilégiés au travers de nouvelles plate-formes de services. Certains projets restent plus complexes, comme le paiement par mobiles qui nécessite de faire travailler ensemble plusieurs partenaires. Mais la demande en services mobiles est telle, dans les entreprises, mais surtout chez les particuliers, qu'elle assurera les investissements logiciels et services des opérateurs télécoms dans les années à venir.
| < Les 10 documents précédents | Les 10 documents suivants > |