Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 241 à 250.
| < Les 10 documents précédents | Les 10 documents suivants > |
(18/07/2011 17:13:57)
SeaMicro installe 768 coeurs Atom dans un micro-serveur
Les transactions sur le web sont généralement traitées par les centres de calcul, qui concentrent les serveurs équipés de puces x86 tels que les Intel Xeon et les AMD Opteron. Mais il y a un intérêt croissant pour les puces basse consommation pour netbook tels que les Atom pour gérer des services web comme la publicité. Des processeurs de petite taille, mais en plus grand nombre a déclaré Andrew Feldman, PDG de SeaMicro. Mais à la différence des puces Atom traditionnelles, celle utilisée par SeaMicro est basée sur le jeu d'instructions x86-64. «Chaque puce est bonne pour certaines opérations. Celle-ci est particulièrement bonne et efficace pour le traitement des opérations web et le trafic Internet », a poursuivi Andrew Feldman.
Beaucoup de charges de travail dans le cloud nécessitent le déplacement et le stockage de données sur Internet, ce qui nécessitent des quantités de traitement modestes, souligne Nathan Brookwood, analyste chez Insight 64. La démarche de SeaMicro consiste dès lors à fournir de meilleures performances par watt grâce à un plus grand nombre de puces Atom. « Si vous avez 10 blocs de données à déplacer, vous n'avez pas besoin d'un processeur puissant pour le faire», avance le consultant.
Une approche différente dans les datatcenters
Les entreprises doivent également garder à l'esprit que certains niveaux de puissance minimum sont imposés dans les datacenters. Il est possible de traiter des transactions dans un cloud avec des puces Xeon et des machines virtuelles, mais une plate-forme sur base Atom pourrait être plus efficace rapporté au ratio puissance/consommation avec ses coeurs plus petits, poursuit Nathan Brookwood. Et pour ce faire, SeaMicro n'est même pas obligé de placer des machines virtuelles dans chaque coeur de processeur.
Le SM10000-64HD de SeaMicro est une mise à niveau du serveur SM10000-64 équipé de 512 coeurs Atom. Avec ses 768 coeurs, il offrira plus de performance avec une consommation énergétique contenue a affirmé Andrew Feldman de SeaMicro. Le nouveau serveur offre plus de puissance (x 1,5) et consomme un peu plus (x1,25) que la précédente version. Le SM10000-64HD repose toujours sur des puces Intel Atom N570 (384 puces double coeur avec un jeu d'instructions x86-64/VT-x/HT), qui fonctionnent à une vitesse d'horloge de 1,66 GHz.
6 puces Atom par carte mère
La puissance du serveur et les performances avantageuses proviennent bien sûr du nombre de coeurs supérieur, mais également de la réduction du nombre de composants, a précisé le dirigeant. Le SM10000-64HD intègre 64 cartes mères (voir illustration principale), comme le précédent modèle, interconnectées via un switch fabric capable de transférer les données à une vitesse de 1,5 térabit par seconde. La capacité maximale en mémoire vive plafonne à 1,5 To (4 Go par puce). Le serveur affiche une dimension de 17,5 pouces (44 cm) en hauteur et intègre les parties stockage et connexions réseau Ethernet. Une puce a également été ajoutée pour sécuriser le trafic IP vers le cloud.
Illustration principale : Carte mère SeaMicro avec 6 puces Atom N570, crédit photo D.R.
[[page]]
Après les puces Intel, SeaMicro envisage aussi d'utiliser les processeurs ARM dans ses serveurs. Et selon Andrew Feldman, il serait également possible de mélanger des puces ARM et Intel dans un même serveur ! Une affirmation bien péremptoire à l'heure ou les puces pour serveurs d'ARM ne sont toujours pas disponibles. Et quel jeu de composant serait utilisé pour mixer ARM et x86. On se souvient toutefois qu'il y a 11 ans, IBM avait développé un jeu de composant baptisé Summit pour gérer des puces IA-64 Merced et des processeurs PowerPC.
«Le marché appartient aujourd'hui à Intel, car Intel propose les produits. En tant que leader, la balle est dans le camp d'Intel », a déclaré Andrew Feldman. Mais l'arrivée d'ARM est un changement bienvenu, car il apportera une concurrence à Intel, a-t-il ajouté. Les processeurs ARM sont considérés comme plus efficaces en terme de rapport puissance/consommation que les puces Atom et équipent la majorité des smartphones et des tablettes dans le monde. ARM n'a cependant pratiquement aucune présence sur le créneau des serveurs, même si l'entreprise considère ce marché comme une opportunité. Le fondeur Marvell a déjà annoncé une puce pour serveur quad core cadencée à 1,6 GHz et basée sur une architecture ARM en novembre de l'année dernière, et le constructeur spécialisé Calxeda a promis un serveur basse consommation sur base ARM, même si aucune date de disponibilité n'a été annoncée.
ARM est toutefois confronté à un défi logiciel de taille puisque la plupart des programmes pour serveur ont été conçus pour fonctionner sur des puces x86. Demander aux clients de recompiler le code de ces applications est un travail de titan a concédé Andrew Feldman.
Le serveur SM10000-64HD est disponible mondialement à partir de 237 000 dollars.
NetApp propose son logiciel de gestion de stockage OnCommand
La création de clouds privés, publics ou hybrides passe par plusieurs axes chez NetApp. Pour Eric Antibi, directeur technique de NetApp France « les efforts passent par une meilleure administration des données et une extension des partenariats ». La première annonce repose sur le logiciel de gestion OnCommand, qui permet de contrôler, d'automatiser et d'analyser l'infrastructure de stockage. « Ce logiciel apporte notamment la création d'un catalogue de services de stockage pour prioriser les applications depuis des environnements NetApp ou non » précise le responsable et d'ajouter « Oncommand Insight fournit en complément des analyses pour remonter des informations comme des mesures basées sur l'utilisation, la planification et la modélisation de performances ».
Des partenariats dans les services et les infrastructures
En parallèle, le spécialiste du stockage étoffe ses partenariats avec les fournisseurs de services, une trentaine proposant environ 50 services clouds dans le monde. Eric Antibi vante aussi les partenariats en matière d'infrastructure, « en novembre dernier, nous avons lancé les solutions FlexPod avec Cisco et VMware pour proposer aux clients une offre tout en un [[NDLR : pour concurrencer d'autres initiatives comme VCE d'EMC ou Blade Matrix chez HP]] ». NetApp a étoffé aussi ces accords en lançant des solutions FlexPod optimisées pour les applications SAP, mais aussi pour accompagner la virtualisation avec Citrix Xen Dekstop et plus récemment Microsoft Hyper-V.
VMware lance une suite pour les infrastructures clouds
La suite inclut plusieurs mises à jours de versions de produits VMware et en particulier vSphere, la plate-forme de virtualisation pour la création d'infrastructures de Cloud, produit phare de l'éditeur ; vCenter Site Recovery Manager, l'outil pour la protection et la migration de site pour les applications virtualisées; vShield, la solution de sécurité orientée virtualisation ; la console de gestion vCloud Director qui permet de créer des clouds privés sécurisés ; vSphere Storage Appliance, un produit qui offre une alternative aux systèmes de stockage partagé. La Cloud Infrastructure Suite comprend également vCenter Operations, livré plus tôt cette année. Selon VMware, le groupe de produits comporte au total plus de 200 modifications, comparé aux versions précédentes.
« Cette offre intégrée va permettre aux entreprises de concevoir une infrastructure à partir de laquelle elles pourront utiliser des services cloud hébergés, » a déclaré Paul Maritz, PDG de VMware, dans un webcast annonçant la sortie du produit. « Permettre aux entreprises de regrouper leurs ressources dans des pools de données plus larges, les faire fonctionner plus efficacement et les lier à une infrastructure externe, voilà un point de départ fondamental pour effectuer une transition vers le cloud computing, » a-t-il fait valoir.
Automatisation, gestion du stockage et appli iPad
VSphere 5 permet d'exécuter des machines virtuelles de très grande taille, capables de gérer 32 processeurs et jusqu'à un téraoctet de mémoire. Le logiciel peut également faire ce que VMware appelle l'automatisation en conformité avec la politique de l'entreprise, autrement dit prendre des décisions pertinentes comme savoir où déployer une VM. Le nouveau produit VMware vSphere Storage Appliance, peut être affecté pour transformer un serveur de stockage situé en interne en pool de stockage commun, ce qui n'impose plus de disposer d'un SAN (storage area network) séparé. « Jusque là, nous préconisions l'installation d'une baie de réplication pour déplacer les données et les machines virtuelles d'un site à l'autre. Désormais, il est possible de réaliser la réplication directement dans le logiciel et d'utiliser le réseau pour effectuer la copie entre deux sites, » a déclaré Steve Herrod, CTO de VMware.
Pour sa part, VMware Site Recovery Manager offre désormais la possibilité de déplacer les charges de travail du site principal vers le site de sauvegarde et de revenir à nouveau sur le site principal. Cette aptitude à réaliser une « restauration automatique est importante, » estime le CTO, parce qu'elle donne la possibilité aux entreprises de déplacer plus facilement les charges de travail entre différents centres de calcul. VCloud Director donne, aux utilisateurs finaux, accès à un portail pour gérer leur charge de travail et choisir les applications qu'ils souhaitent déployer. La nouvelle version de ce logiciel est accessible depuis un iPad.
Une offre modulaire
« Dans un scénario de déploiement classique, une entreprise peut utiliser certains ou même tous ces produits comme base d'une plate-forme Cloud, » a déclaré Jacques Neela, manager marketing produit chez VMware. « vSphere lui-même, gère les machines virtuelles individuelles et vCloud Director fournit aux administrateurs un moyen de virtualiser toutes les ressources physiques, comme les serveurs, les réseaux et les appareils de stockage, en les regroupant dans un seul pool de ressources. vCenter Operations édite des rapports et des statistiques sur l'utilisation tout en réalisant des fonctions de gestion comme le suivi de facturation pour chaque utilisateur. Le framework vSphere peut être utilisé par les vendeurs de logiciels antivirus et antimalware pour scanner les machines virtuelles et repérer les virus.
Le logiciel vSphere Storage Appliance est plutôt destiné aux petites et moyennes entreprises qui n'ont pas les ressources nécessaires pour mettre en place un réseau de stockage séparé, » a détaillé le manager. « S'ils prennent leurs disques partagés et en font un pool commun, les entreprises peuvent profiter de l'équilibrage de charge et d'une haute disponibilité automatique, » a ajouté Neela Jacques. « Notre objectif est d'aider les clients à transformer l'infrastructure physique en une infrastructure virtualisée, et de rendre cette infrastructure beaucoup plus agile, » a t-il encore ajouté. VMware prévoit de livrer l'ensemble de ces produits d'ici la fin septembre. Chaque application sera disponible sous licence individuellement.
Microstrategy World : la BI prend le virage de la mobilité, du cloud et des Big Data
Dès l'ouverture en session plénière, la stratégie de l'éditeur a été claire et s'oriente autour de quatre concepts clés pour poursuivre la croissance de ses parts de marché : le « Big Data », le « Social Media », le cloud et la mobililité.
Bien qu'Apple ne soit pas sponsor et que l'interface pour Blackberry soit la plus ancienne (depuis 2007), la mobilité se déclinait surtout en iPhone et iPad. « Nous avons la conviction que les outils mobiles vont remplacer les ordinateurs traditionnels pour de nombreux usages, malgré les risques de perte, destruction ou vol accrus » a proclamé Mike Sailor, PDG de l'éditeur. A l'appui de ses dires, celui-ci a rappelé que les ventes de smartphones sont désormais supérieures à celles d'ordinateurs. Pour Mike Sailor, « on fera de plus en plus tout avec des outils mobiles et ils contiendront les données nécessaires pour se connecter à toutes sortes de services personnels ou professionnels, y compris pour payer. »
Pour les usages professionnels, il en résulte des applications les plus diverses : e-formation, suivi des ventes, collaboration interne... Bon nombre (à commencer par le suivi des ventes, présenté par plusieurs clients) reposent sur du décisionnel. Au contraire de ce qui pouvait encore s'envisager il y a quelques années, Mike Sailor, avec démonstrations à l'appui, a insisté sur la richesse fonctionnelle des applications mobiles de décisionnel. Loin d'être une simple consultation d'états pré-définis, il s'agit bien d'intervenir en transactionnel.
Microstrategy propose la possibilité de créer des applications pour iPhone/iPad. Cette plate-forme a été choisie au départ à cause de sa popularité importante. Son équivalent pour Android est attendu sous peu mais aucune date n'est avancée. Enfin, Windows Phone est envisagé, un fort développement étant attendu, au contraire de Nokia Symbian, vouée à une probable disparition du champ professionnel selon Mike Sailor.
Le cloud et les Big Data
Face aux risques liés aux terminaux mobiles, la réponse proposée par MicroStrategy est de loger le système décisionnel dans le cloud. Il est en effet, dès lors, accessible de partout à partir de n'importe quelle plate-forme (ou presque).
Il se trouve que, bien entendu, MicroStrategy propose une offre de décisionnel en SaaS reposant sur un partenariat avec d'une part Informatica (pour l'ETL) et d'autre part Netezza et Paraccel pour les bases de données. Pour Mike Sailor, cette offre cloud est adaptée aussi bien pour récupérer les systèmes décisionnels existants que de développer rapidement des solutions ponctuelles. Bien entendu, il a revendiqué un niveau de performance largement supérieur à ce qui pouvait exister dans la plupart des systèmes installés en local. Une installation en SaaS se veut toujours plus rapide et plus simple, donc moins coûteuse et avec un modèle économique au ROI plus facile à obtenir.
[[page]]
Le cloud n'est pas le seul mouvement de mode du moment. La notion de « big data » commence aussi à envahir les discours et MicroStrategy n'y échappe pas. Rappelons qu'il s'agit de savoir faire quelque chose avec les masses considérables et croissantes de données disponibles. « En 1990, la plus grosse base de données du monde contenait 200 Go mais c'est aujourd'hui le volume quotidien téléchargé en vidéos par des particuliers » s'est exclamé Mike Sailor. MicroStrategy se connecte aux principaux produits dédiés du marché, dont les éditeurs étaient pour beaucoup sponsors de la manifestation. L'une des problématiques majeures dans ce cas est de préserver les performances des applications malgré les volumes.
S'interfacer avec les réseaux sociaux
L'une des raisons de l'explosion des volumes de données réside bien sûr dans les médias sociaux. Au fil du temps, le nombre d'utilisateurs et le volume de données ne cessent de croître et la BI a suivi un chemin historique qui a débuté par le « desktop BI » avant de passer à la « web intelligence » puis à la « mobile intelligence » et enfin, aujourd'hui, à la « social intelligence ». La problématique de la performance est de plus en plus prégnante au fur et à mesure du développement de ces demandes.
MicroStrategy a répondu à cette problématique de la « social intelligence » d'une part en s'engageant dans une stratégie de performance à partir de 2009 et d'autre part en développant des applications dédiées aux médias sociaux. Ainsi, une de ces applications permet de trier les flux d'informations afin, de gérer des alertes, de l'autre une application vient d'être lancée pour interfacer la GRC de l'entreprise (orientée relationnel) et Facebook (basé sur une logique de graphe social). Cette application, Gateway for Facebook permet à l'entreprise de générer des pages sur Facebook qui seront des interfaces avec la GRC. Chaque fan permet ainsi à l'administrateur de la page d'interagir avec lui grâce à un « jeton » qu'il lui attribue, permettant ainsi à l'entreprise d'accéder aux données personnelles, aux graphe d'amitiés, aux centres d'intérêt (via les « j'aime ») et aux activités (via les géolocalisations partagées et les évènements acceptés).
La pluralité des plates-formes de réseaux sociaux oblige encore chaque éditeur à s'adapter à chaque réseau. Une future application pour Linkedin, par exemple, ne pourrait pas être autre chose qu'un nouveau développement. On comprend donc que MicroStrategy se contente donc pour l'heure de Facebook, le plus populaire des réseaux sociaux.
Citrix s'empare de Cloud.com, fournisseur de logiciels pour le déploiement de clouds
Citrix a annoncé le rachat de la société Cloud.com, fournisseur de solutions pour le déploiement de cloud. «Nous considérons cette acquisition comme stratégique et elle améliorera notre position sur le marché des infrastructures cloud», a déclaré Sameer Dholakia, vice-président du développement marché de Citrix. Il a ajouté « nous pensons que [le cloud computing] est une tendance de transformation qui change fondamentalement la façon dont l'infrastructure informatique est conçue, construite, livrée et consommée. »
Cloud.com, anciennement appelé VMOps, offre une brique Open Source de logiciels d'orchestration et d'administration, qui se nomme CloudStack. Ils sont utilisés pour le déploiement de cloud multi-tenant de type Infrastructure-as-a-Service (IaaS).
Un agnosticisme sur les hyperviseurs conservé
CloudStack supporte non seulement XenServer l'hyperviseur de Citrix, mais aussi KVM, Hyper-V de Microsoft et vSphere de VMware. Cette solution est également étroitement intégrée au projet Open Source OpenStack. Enfin, Citrix indique que les produits de Cloud.com seront associés avec NetScaler Cloud gateway et NetScaler Cloud Bridge afin de faciliter les échanges entre un cloud public et l'infrastructure en propre des clients.
Parmi les clients de Cloud.com figurent des sociétés telles que Nokia, GoDaddy et Zynga, qui offre le populaire jeu en ligne Farmville sur Facebook, mais aussi Tata Communication ou KT (Korean Telecom). Afin de mieux se concentrer sur ce marché émergent des logiciels clouds, Citrix a lancé une nouvelle division, appelée Cloud Platforms Product Group, qui est dirigée par Sameer Dholakia, l'ancien PDG de VMLogix, que Citrix a acquis l'année dernière.
CIO.PDF 39 : la longue marche de la virtualisation au cloud privé
Les responsables informatiques virtualisent autant qu'il est possible leur datacenter. Ils travaillent à la réduction des délais de provisioning d'environnements complets. Le Cloud privé en est à ses premiers services chez certains d'entre eux. En effet, Si la plupart des managers de systèmes d'information ont désormais industrialisé la virtualisation de leurs serveurs, en ne retenant que les environnements auxquels cela convient, ils ne sont que quelques-uns à avoir initié des services de Cloud privé.
La création de ces clouds privés est au coeur du dossier de CIO.PDF 39.
La rubrique International rapporte, en complément, le témoignage, recueilli par nos confrères américains, des conséquences de l'arrivée du cloud dans une entreprise en termes d'organisation de la DSI.
Par ailleurs, ce numéro de CIO.PDF comprend un retour sur la carrière de Marie-Noëlle Gibon, désormais auditeur de groupe au sein de La Poste après en avoir été la DSI. Elle est également très impliquée dans les associations professionnelles, le Cigref et l'AeSCM. La gestion des risques a été un leitmotiv dans sa carrière.
Enfin, Giuseppe de Martino, secrétaire général de Dailymotion, explique comment l'informatique, qui représente la moitié de l'effectif, est intégrée et gérée au sein de cette entreprise où elle est la force de production.
Lire CIO.PDF 39
IBM renforce ses relations partenaires dans le cloud
IBM propose à tous une même certification : « cloud computing specialty », même si les partenaires visés appartiennent à des univers très différents : grossistes, intégrateurs one tiers, revendeurs en two tiers, hébergeurs.
IBM a d'ailleurs procédé à une cartographie et une revue d'effectifs ces derniers mois des acteurs de l'indirect en France. Sur le seul créneau des hébergeurs, « big blue » a par exemple recensé 700 prestataires pour en sélectionner et discuter avec une centaine d'entre eux. Au final, IBM a défini cinq grandes catégories d'acteurs : les cloud builder comme Sogeti, D.FI, APX ; les cloud services solution provider ; tels que Arago Consulting, Synergie Informatique, SK Telecom, les hébergeurs Hardis, Aspenium, Aspaway; les cloud application provider comme Coheris, Cylande, Divalto, Eliadis ; les cloud technology provider comme Jamcracker (un agrégateur de services cloud), Kaavo, Servoy.
Tous seront encadrés par les équipes de Philippe Sajhau, vice-président business partners et mid market qui remplace depuis quatre mois Eric Taillard.
Accès aux données dans le cloud : l'UE confrontée au Patriot Act américain
Cette question a été soulevée suite à un aveu fait la semaine dernière par Microsoft : l'entreprise pourrait déplacer les données de clients européens vers un nouveau service cloud sous autorité américaine. La firme de Redmond pourrait également être contrainte par le Patriot Act de garder le secret sur tout transfert de ce type. Cette mesure est en totale contradiction avec la directive européenne, qui stipule que les entreprises doivent informer les utilisateurs dans le cas où ils divulguent des renseignements les concernant. « Est-ce que la Commission considère que le Patriot Act américain a effectivement force de loi sur la directive européenne concernant la protection des données ? Que va faire la Commission pour remédier à cette situation et s'assurer que les règles décidées par les Européens pour la protection des données soient effectivement appliquées ? Que va-t-elle faire pour que la législation de pays tiers ne prévale pas sur la législation européenne ? » a demandé Sophia In't Veld, membre de la commission pour les libertés civiles au Parlement.
Dans le passé, la commissaire Viviane Reding, en charge du dossier pour la protection des données, s'était dite favorable à un projet de loi sur la protection des données privées proposé par les sénateurs John Kerry (Démocrate, Massachusetts), et John McCain (Républicain, Arizona), estimant que c'était une solution possible. « Je me réjouis qu'un projet de loi allant dans ce sens, à l'initiative des Démocrates et des Républicains, soit présenté devant le Congrès américain. La Commission partage également l'objectif principal du projet de loi : renforcer la confiance des individus dans les nouvelles technologies grâce à des normes adaptées, » avait- t-elle déclaré.
Des données de clients déjà transférées aux Etats-Unis
Microsoft aurait déjà pu transférer les données européennes aux États-Unis en vertu de l'accord Safe Harbor. Mais les experts juridiques estiment que cet accord « vaut à peine le papier sur lequel il est écrit. » Celui-ci comporte le respect de sept principes, dont la protection raisonnable des données, et une application clairement définie et effective. Cependant tout cela perd toute valeur si le Patriot Act est invoqué. « Je crains que l'accord Safe Harbor n'ait désormais très peu de valeur, dans la mesure où il apparait que les entreprises américaines qui proposent de conserver les données dans un cloud européen soient encore obligées d'autoriser l'accès à ces données au gouvernement américain sur la base du Patriot Act », a déclaré Theo Bosboom, un avocat expert dans les questions technologiques au sein du cabinet Dirkzager Lawyers. « Les Européens feraient mieux de conserver leurs données en Europe. Si un partenaire européen propose une solution cloud en Europe et offre la garantie que les données resteront au sein de l'Union européenne, alors c'est sans aucun doute, sur le plan juridique, le meilleur choix. »
Ce conseil risque très certainement d'être mal perçu par les nombreux acteurs du cloud computing enregistrés aux États-Unis, parmi lesquels on trouve Amazon, Google, IBM ou Microsoft. Le nouveau service cloud de Microsoft, dont le lancement est prévu la semaine prochaine, sera découpé en régions géographiques indiquant où les données des clients sont physiquement stockées. Mais le géant de l'informatique ne peut garantir que les informations concernant les utilisateurs européens ne soient pas divulguées : « Dans un nombre de circonstances limitées, Microsoft peut avoir besoin de livrer des données sans votre consentement préalable, en particulier pour répondre à des exigences légales, ou pour protéger les droits ou la propriété de Microsoft. »
Un accord nécessaire entre l'UE et les Etats-Unis
De son côté, Sophia In't Veld espère que la commissaire Reding va réagir rapidement à cette question essentielle : « Ce qui est en jeu, c'est de savoir si l'Europe a ou non la capacité d'appliquer ses propres lois sur son propre territoire, ou si les lois d'un pays tiers prévalent. » Elle espère également que la commissaire Reding fera en sorte que les États-Unis et d'autres pays respecteront les lois de l'UE sur le territoire de l'UE : « Je ne pense pas que les États-Unis apprécieraient beaucoup que les Européens (ou d'autres autorités non américaines) puissent avoir accès à des bases de données sous juridiction américaine, » a-t-elle déclaré.
(...)(06/07/2011 10:33:00)
Comment bien maitriser l'externalisation de ses solutions
« L'externalisation croit, notamment du fait du cloud computing, mais aussi sous la pression de la nécessité de répondre aux attentes de l'entreprise au plus vite et au plus efficient » a diagnostiqué Marie-Noëlle Gibon, présidente de l'Ae-SCM (association de promotion du référentiel eSCM) en ouvrant un colloque commun AeSCM/AFAI (Association Française de l'Audit et du Conseil Informatique) le 4 juillet 2011. Or, par définition, l'entreprise ne contrôle pas ce qui est externe à elle. Il convient malgré tout de le maîtriser tout en maintenant une relation équilibrée et durable.
Les directions métiers ou les clients de l'entreprise ne doivent en effet pas avoir à s'apercevoir que telle ou telle fonction est externalisée. L'intégration interne/externe doit être « sans couture ». Or, comme le reconnaît volontiers Marie-Noëlle Gibon, en plus des risques inhérents à tous les projets informatiques, « l'externalisation comporte ses risques propres ».
Passer en mode SaaS pour aller plus vite
Hubert Tournier, adjoint au DOSI du Groupement des Mousquetaires, a ainsi expliqué l'attrait du cloud computing : « les DSI autant que leurs clients internes peuvent chacun utiliser des solutions sur étagères, notamment du SaaS, pour aller plus vite. » Il existe cependant une tendance gênante : la remise en concurrence permanente. Il y a là une perte de temps considérable à chaque fois.
De nouveaux prestataires apparaissent pour répondre à cette demande encore mouvante, parfois des éditeurs classiques qui découvrent ainsi un nouveau mode de relation avec leurs clients. Mais, selon Hubert Tournier, une relation contractuelle sur huit se termine très mal de manière prévue assez en amont. Il y a, de ces faits, un manque de confiance entre clients et fournisseurs.
Une mutualisation de la confiance
Or, pour conquérir cette confiance, les clients cherchent à auditer au maximum leurs prestataires pour vérifier qu'ils utilisent bien les meilleures pratiques et les dispositifs de contrôle interne appropriés. Pour éviter de subir un grand nombre d'audits, ce qui est toujours consommateur de ressources, les fournisseurs ont tendance à opter pour des certifications. Celles-ci sont censées permettre, en quelque sorte, de mutualiser la confiance en évaluant une seule fois un prestataire. Pour Pascal Antonini, président de l'AFAI, « les référentiels permettent aux clients et aux fournisseurs de s'entendre, notamment grâce à un vocabulaire commun. »
L'AFAI et l'Ae-SCM ont ainsi travaillé sur la double certification eSCM et SAS70, les intérêts et limites de la convergence de ces deux référentiels. ESCM concerne en effet les achats IT et SAS70 toutes les externalisations. « SAS70 est un standard d'audit de toute externalisation, l'IT comme les autres » mentionne Serge Yablonsky, président d'honneur de l'AFAI. La conjonction des deux permet de préciser le champ à auditer dans les externalisations IT. SAS70 évolue en ce moment vers une nouvelle norme, ISAE 3402, plus complète.
Des réticences persistent
Cette démarche a cependant aussi ses inconvénients : outre son coût direct, toute certification prend du temps. Et les clients ne sont pas tous sensibles aux charmes d'un référentiel unique, exigeant malgré tout un audit propre, ce qui anéantit l'intérêt de la démarche. En fait, le véritable problème à résoudre reste une maturité dans la relation client-fournisseur. « Ce rapport doit évoluer en solidarité professionnelle » juge Hubert Tournier. (...)
Transformation de l'Etat : IBM dévoile son rapport remis au président Sarkozy
Ce document de travail IBM d'une vingtaine de pages a été réalisé à l'occasion de la rencontre du président d'IBM, Sam Palmisano, et du président Sarkozy en mars dernier. Juste avant le centenaire de Big Blue, Sam Palmisano souhaitait en effet autre chose qu'une simple rencontre informelle avec le président français. D'où l'idée de proposer un document de travail sur la modernisation de l'Etat. Une équipe d'IBM France menée par Silvano Sansoni, directeur secteur public, et Pierre Lhoste, responsable du développement de l'activité secteur public, a rédigé six propositions tirant parti des bonnes pratiques du secteur privé. À la clef, pas moins de 2 milliards d'euros d'économie par an : 150 millions avec la dématérialisation des notes de frais, 600 millions en repositionnant les fonctions RH sur les activités à valeur ajoutée grâce à la dématérialisation des processus de gestion du personnel, 400 millions grâce aux nouvelles technologies de l'information et l'industrialisation des processus de formation, 500 millions en réduisant les paiements indus et en luttant contre la fraude, 150 millions en consolidant les datacenters, 100 millions en pilotant mieux les projets informatiques et enfin 150 millions en optimisant la gestion des actifs de l'administration.
2 milliards d'économies à la clef selon IBM
Difficile, de savoir quel accueil a été réservé à ce document. Impatient, le PDG d'IBM France, Alain Benichou nous avait confié en avril dernier son étonnement quant à l'absence de réaction à l'Élysée. Depuis les choses semblent s'être arrangées puisque le palais a organisé un rendez-vous entre IBM et les services de François Baroin pour présenter le rapport. « Le rythme est celui de l'administration, l'Élysée nous a ouvert les portes de Bercy. S'ils retiennent une idée de ce document, ce sera déjà bien » confie Silvano Sansoni. « Nous avons discuté très longuement avec la Disic, sans engagement de leur part. On propose de gros projets, c'est stimulant. Il s'agit de faire des économies, mais aussi d'innover. Ca document fait suite à notre étude CIO Study avec 2 sources de travail : nos collaborateurs et nos partenaires ». À la question de savoir où se trouvait la France sur l'échelle de la modernisation des systèmes d'information, Silvano Sansoni place notre pays au niveau des États-Unis - notamment pour la modernisation du poste de travail - mais derrière les pays nordiques. « Il y a eu beaucoup d'avancées en France ces dernières années, notamment au niveau des services rendus aux usagers. Fin 2011, 98% des services publics seront accessibles en ligne contre 30% en 2007 ».
[[page]]
Dans son document de travail, IBM met l'accent sur la formation des agents publics pour favoriser leur mobilité et accompagner la réduction des effectifs. Plusieurs points très importants sont mis en avant par Pierre Lhoste comme la formation individuelle des agents et l'e-learning, l'approche globale de la formation, l'utilisation de serious games pour la formation en ligne, mieux suivre les dépenses engagées pour la formation des agents (4 milliards d'euros pas an au budget de l'État) ce qui pourra permettre de réduire de 10% cette enveloppe et enfin utiliser des outils d'analyse des compétences pour une meilleure gestion provisionnelle.
L'analytique contre les fraudeurs
De nouvelles opportunités sont également proposées à l'État par exemple les technologies analytiques pour réduire les risques de fraude dans une approche globale de profilage, de cotation des risques avec des modèles prédictifs mathématiques. Au Royaume-Uni, IBM a déjà installé une solution de ce type pour le DWP (le ministère du Travail et des pensions) pour lutter contre la fraude au Pôle emploi britannique. Et lors du dernier sommet de l'OTAN, IBM a stimulé les collaborations entre les participants - plusieurs milliers de personnes - avec une de ses sessions Jam - pratiques empruntées à l'univers du jazz et transformées en forums de discussion rassemblant divers interlocuteurs - ouvertes depuis 2007 aux entreprises et aux acteurs publics. Enfin, toujours à titre d'exemple, la ville de Besançon a adopté un outil IBM pour la gestion de son patrimoine.
Court et synthétique, le document de travail d'IBM n'est pas très innovant, beaucoup de ces recettes ont déjà été utilisées dans le secteur privé. Il souligne simplement le retard de l'État dans bon nombre de domaines. À l'heure de la révolution des services, les investissements publics se font toujours dans des conditions ubuesques (35 pages par exemple pour un appel d'offres sur des serveurs qui seront presque obsolètes au moment de leur livraison).
(...)
| < Les 10 documents précédents | Les 10 documents suivants > |